Artykuł Hitachi Vantara: już nie tylko dla korporacji pochodzi z serwisu CRN.
]]>Jak widać, nie bez powodu marka Hitachi Vantara kojarzy się klientom z rozwiązaniami high-end. Jednakże półtora roku temu producent wprowadził na rynek nową rodzinę E Series, która składa się z trzech systemów pod nazwą Hitachi Virtual Storage Platform: E590, E790 oraz E990. Są to systemy klasy midrange, w pełni opierające się na technologii NVMe (Non-Volatile Memory Express).
Warto podkreślić, że NVMe to 64 tysiące kolejek i 65,535 komendy w każdej kolejce, zaś SATA to jedna kolejka z 32 komendami. Zastosowanie NVMe znacząco przekłada się więc na wydajność, a systemy E590, E790 oraz E990 zapewniają (odpowiednio): 4 mln, 6,8 mln oraz 5,8 mln IOPS.
– Hitachi Vantara wraz z rodziną E Series jest propozycją dla nowej grupy klientów, do której należą przedsiębiorstwa z segmentu SMB. Producent oferuje nowoczesne systemy w bardzo rozsądnej cenie. Pracują one pod kontrolą tego samego systemu operacyjnego SVOS-RF co systemy high-end, więc nawet najniższy model może tworzyć relację replikacji. To też ważne z punktu administratora pamięci masowych. Jeśli zna macierze midrange, bez trudu poradzi sobie z modelami z poziomu high-end – tłumaczy Marcin Długosz, Hitachi Vantara Business Development Manager w S4E.
Jedną z unikalnych cech tych i innych produktów Hitachi jest wirtualizacja pozwalająca na przedłużenie cyklu życia starszych macierzy za pomocą bazowego systemu dostarczanego z urządzeniem. Modele Hitachi E590 i E790 obsługują maksymalnie 24 dyski NVMe, co wynika z ograniczeń kontrolerów/procesorów. W macierzach Hitachi można instalować moduły NVMe o pojemności nawet 30 TB, zatem w jednym urządzeniu o wysokości 2U mieści się 720 TB danych w pełni NVMe. Od niedawna istnieje możliwość dokładania półek SAS-owych – maks. 7.92 PB (30 TB NVMe plus SAS SSD).
– To naprawdę imponujący rezultat. Jeszcze do niedawna, aby uzyskać taką pojemność, musielibyśmy wypełnić dyskami kilka szaf 42U. Dzięki dyskom o dużej pojemności i mechanizmom redukcji danych ADR 4:1, zapotrzebowanie na energię, przestrzeń i chłodzenie maleje. Niestety, wielu klientów podczas inwestycji w systemy pamięci masowych zapomina o kosztach klimatyzacji czy zasilania – zauważa Marcin Długosz.
Do zarządzania pojedynczą macierzą służy wbudowana w kontrolery konsola VSP Embedded Management, natomiast w przypadku większej ilości macierzy używa się aplikacji Hitachi Ops Center, w której zawarte są narzędzia analityczne zapobiegające pojawieniu się potencjalnych problemów. Warto dodać, że do 30 marca br. trwa promocja macierzy Hitachi Virtual Storage Platform E590 i E790.
– Jesteśmy w stanie skonfigurować na bazie nośników NVMe system, który będzie kilka tysięcy euro droższy od macierzy z nośnikami SSD SAS. Nie jest to znacząca różnica, biorąc pod uwagę różnice technologiczne, a także wskaźnik TCO dla obu rozwiązań – wyjaśnia Marcin Długosz.
Czas na pamięć obiektową
Hitachi Content Platform (HCP) jest wykorzystywane przez przedsiębiorstwa oraz instytucje jako podstawa do budowy centralnego obiektowego magazynu danych. Jednym z najpopularniejszych scenariuszy jest budowa chmury prywatnej. Technologia WORM, retencja danych oraz inne wbudowane w macierz obiektową mechanizmy pozwalają spełnić zarówno wewnętrzne polityki organizacji, jak i zewnętrzne regulacje prawne. Pakiet Hitachi Data Protection Suite, bazujący na oprogramowaniu Commvault, wykorzystuje HCP jako repozytorium.
– Współpraca macierzy Hitachi Vantara z systemem Commvaulta układa się modelowo. Rozwiązania Commvault zapewniają prostą i skalowalną ochronę danych. Ich zastosowanie umożliwia tworzenie snapshotów macierzowych czy płynne przenoszenie do repozytoriów danych – mówi Marcin Długosz.
Warto podkreślić, że S4E prowadzi akcję „Japońska twierdza”, w ramach której pokazywane są korzyści, jakie niesie ze sobą współpraca dwóch producentów. Szczegółowych informacji na ten temat udziela Marcin Długosz: marcin.dlugosz@s4e.pl.
Zachęcamy do odwiedzenia największej w Polsce polskojęzycznej bazy wiedzy na temat rozwiązań Macierze Hitachi Vantara.
Artykuł Hitachi Vantara: już nie tylko dla korporacji pochodzi z serwisu CRN.
]]>Artykuł Przejęcie za 9,6 mld dol. pochodzi z serwisu CRN.
]]>Hitachi kupi GlobalLogic. Wartość transakcji to ok. 9,6 mld dol. Jej finalizacja jest planowana w lipcu br.
GlobalLogic to amerykańska korporacja, która specjalizuje się w inżynierii oprogramowania (typu chip-to-cloud). Posiada własne zespoły projektowe (w sumie zatrudnia ponad 20 tys. osób w kilkunastu krajach, w tym w Polsce) i szerokie kompetencje branżowe.
Ponad 400 klientów
Firma ma ponad 400 klientów z takich sektorów jak komunikacja, usługi finansowe, motoryzacja, opieka zdrowotna i nauki przyrodnicze, technologia, media i rozrywka, produkcja.
GlobalLogic koncentrując się na tworzeniu oprogramowania, projektowaniu cyfrowych rozwiązań i usług, pod kontrolą Hitachi może dostarczać cyfrowe usługi inżynieryjne klientom i partnerom firmy.
Wsparcie specjalistycznych zespołów GlobalLogic pozwoli też na rozszerzenie pakietu usług obejmujących aktualne portfolio Hitachi, jak rozwiązania analityczne na platformie Lumada. Nowy zakup ma wesprzeć transformację cyfrową zarówno samej korporacji Hitachi.
5 obszarów synergii
Przejęcie stworzy synergię w pięciu sektorach Hitachi. Według korporacji są to: IT, energetyka, przemysł, mobile i smart life, oraz w branży systemów motoryzacyjnych (Hitachi Astemo).
GlobalLogic w Polsce jest obecne od 2016 r. Regionalny oddział korporacji znajduje się we Wrocławiu (został zorganizowany na bazie przejętej firmy REC Global). Specjalizuje się w tworzeniu oprogramowania m.in. dla sektora motoryzacyjnego, dla przemysłu, finansowego. GlobalLogic Polska w 2019 r. wypracował 33,4 mln zł zysku netto.
Artykuł Przejęcie za 9,6 mld dol. pochodzi z serwisu CRN.
]]>Artykuł Najlepsze miejsca pracy IT w Polsce pochodzi z serwisu CRN.
]]>W kategorii dużych podmiotów, zatrudniających ponad 500 osób najlepszą dwunastkę zdominowały firmy technologiczne. Numerem 1 okazało się Cisco, tuż za nim uplasował się lokalny oddział Sii. W topowym zestawieniu zmieścili się także: Akamai (4), Objectivity (6), firma produkcyjna Della (8), lokalna spółka Atos Global Services (9) oraz Astek (12).
Pierwsze miejsca w pozostałych kategoriach zajęli: SC Johnson (firmy małe, do 50 osób), Kongsberg Maritime Poland (firmy średnie, 50-500 osób).
W kategorii średnich firm na podium znalazł się SAS Institute (3). W najlepszej „15” uplasowali się również GE IT Center of Excellence (7) oraz Hitachi Vantara (11).
Pracownicy mają decydujący głos
Laureaci konkursu zostali wyłonieni spośród firm, które na wcześniejszym etapie uzyskały certyfikat Great Place To Work. Aby przekroczyć próg certyfikacyjny firma musi uzyskać pozytywną ocenę od swoich pracowników, wyrażoną w anonimowej ankiecie. Odsetek pozytywnych odpowiedzi musi wynosić co najmniej 65 proc. Jednak aby zakwalifikować się na listę, wskaźnik musi być jeszcze wyższy. Ankieta pracownicza ma 2/3 wagi dla finalnej oceny, a 1/3 – ocena praktyk HR w firmie. Zatem o tym, czy firma znajdzie się wśród najlepszych miejsc pracy decydują przede wszystkim pracownicy – zapewnia organizator konkursu.
Z danych wynika, że 80 proc. pracowników firm, będących laureatami tegorocznego konkursu potwierdza, że pracują w świetnych miejscach pracy. Średnia krajowa wyniosła 48 proc.
Legendy z branży IT
Cisco, Sii oraz Objectivity od lat plasują się w czołówce firm, które uznano za najlepsze miejsca pracy w Polsce. Cisco i Sii zajęły 1 i 2 miejsce również w ubiegłorocznym konkursie.
W tym roku po raz pierwszy przyznano nagrodę Legendy – dla firm, które co najmniej piąty raz z rzędu brały udział w badaniu Great Place To Work, przystąpiły do konkursu i znalazły się w gronie jego laureatów. W tym roku tym wyróżnieniem uhonorowane zostały 3 firmy: Cisco Poland, Objectivity oraz Sii Polska.
W br. w zestawieniu średnich organizacji zabrakło natomiast Microsoftu, który w ub.r. zajął 2 miejsce w tej kategorii.
Najlepsze Miejsca Pracy Polska 2020
Nazwa organizacji |
Branża |
|
Kategoria firm zatrudniających poniżej 50 osób |
||
1 |
SC Johnson |
Dystrybucja |
Kategoria firm zatrudniających poniżej 500 osób |
||
1 |
Kongsberg Maritime Poland |
Usługi profesjonalne |
2 |
Mercedes-Benz Financial Services |
Usługi finansowe i ubezpieczenia |
3 |
SAS Institute |
Technologie informatyczne |
4 |
Chatham Financial Europe Oddział w Polsce |
Usługi finansowe i ubezpieczenia |
5 |
GROHE Poland |
Usługi profesjonalne |
6 |
SIX Global Services |
Usługi profesjonalne |
7 |
GE IT Center of Excellence |
Technologie informatyczne |
8 |
The Adecco Group |
Usługi profesjonalne |
9 |
Vivus Finance |
Usługi finansowe i ubezpieczenia |
10 |
VFS Usługi Finansowe Polska |
Usługi finansowe i ubezpieczenia |
11 |
Hitachi Vantara (Polska) |
Usługi profesjonalne |
12 |
Ikano Bank Oddział w Polsce |
Usługi finansowe i ubezpieczenia |
13 |
Janssen Cilag Polska |
Biotechnologia i przemysł farmaceutyczny |
14 |
Worldline Polska |
Usługi finansowe i ubezpieczenia |
15 |
Louvre Hotels Group in Poland |
Hotele i restauracje |
Kategoria firm zatrudniających powyżej 500 osób |
||
1 |
Cisco Poland |
Technologie informatyczne |
2 |
Sii Polska |
Technologie informatyczne |
3 |
Hilti (Poland) |
Budownictwo, infrastruktura i nieruchomości |
4 |
Akamai Technologies Poland |
Technologie informatyczne |
5 |
3M Service Center EMEA |
Usługi profesjonalne |
6 |
Objectivity |
Technologie informatyczne |
7 |
EY Polska |
Usługi profesjonalne |
8 |
Dell Products (Poland) |
Produkcja |
9 |
Atos Poland Global Services |
Technologie informatyczne |
10 |
DOZ S.A. |
Ochrona zdrowia |
11 |
Robert Bosch |
Handel detaliczny |
12 |
ASTEK Polska |
Technologie informatyczne |
Źródło: Great Place To Work
Po raz drugi w historii konkursu ogłoszona została także lista 10 najlepszych miejsc pracy dla milenialsów. Laureaci tego rankingu wybierani są z grona firm wyróżnionych w głównym konkursie. Nr 1 został Kongsberg Maritime Poland. Natomiast Cisco, które w zeszłym roku było pierwsze, zajęło tym razem 4 miejsce.
Najlepsze Miejsca Pracy dla Milenialsów 2020
|
Nazwa organizacji |
Branża |
1 |
Kongsberg Maritime Poland |
Usługi profesjonalne |
2 |
Chatham Financial Europe Oddział w Polsce |
Usługi finansowe i ubezpieczenia |
3 |
GROHE Poland |
Usługi profesjonalne |
4 |
Cisco Poland |
Technologie informatyczne |
5 |
SIX Global Services |
Usługi profesjonalne |
6 |
Sii Polska |
Technologie informatyczne |
7 |
Hilti (Poland) |
Budownictwo, infrastruktura i nieruchomości |
8 |
GE IT Center of Excellence |
Technologie informatyczne |
9 |
VFS Usługi Finansowe Polska |
Usługi finansowe i ubezpieczenia |
10 |
Akamai Technologies Poland |
Technologie informatyczne |
„Milenialsi w ciągu najbliższych kilku lat będą stanowić 75 proc. pracowników i choćby przez ten fakt są dla pracodawców ważni” – mówi Marzena Winczo-Gasik, szef zespołu Culture Audit w Great Place To Work w Polsce.
Artykuł Najlepsze miejsca pracy IT w Polsce pochodzi z serwisu CRN.
]]>Artykuł Zwolnienia w Hitachi Vantara pochodzi z serwisu CRN.
]]>Nieoficjalne informacje, do których dotarł amerykański CRN, mówią o zwolnieniu do 1,5 tys. osób (tak podaje serwis Blocks & Files) na 12 tys. wszystkich pracowników. Z posadą mieliby pożegnać się przede wszystkim ludzie z Hitachi Consulting. Rzecznik Hitachi Vantara zaprzeczył jednak, że skala zwolnień jest tak duża oraz że dotyczą one głównie biznesu konsultingowego. Wyjaśnia redukcję koniecznością usprawnienia działalności, poprawy wyników finansowych i wzmocnienia firmy w dłuższym terminie. Zapewnił, że udzielono wsparcia zwalnianym osobom.
Integracja biznesów Hitachi
Na początku br. spółka Hitachi Consulting połączyła się z Hitachi Vantara. Było to kolejne scalanie biznesów korporacji. Hitachi Vantara utworzono w 2017 r. Jedna organizacja objęła dotychczasowe firmy: Hitachi Data Systems (infrastruktura centrów danych), Hitachi Insight Group (internet rzeczy) i Pentaho (analityka). Wraz z wchłonięciem Hitachi Consulting doszły do tego kompetencje doradcze. Takie połączenie ma lepiej wspierać klientów w cyfrowej transformacji.
Integracja sprawia, że Hitachi Vantara przekształca się w nowy rodzaj firmy specjalizującej się w infrastrukturze cyfrowej i rozwiązaniach – przekonuje rzecznik korporacji. Jednocześnie działa na szybko rosnącym rynku zarządzania danymi i analityki jak i na rynku storage'u. Podkreślił, że firma nadal koncentruje się na segmencie pamięci masowych.
Artykuł Zwolnienia w Hitachi Vantara pochodzi z serwisu CRN.
]]>Artykuł Fuzja w globalnej korporacji pochodzi z serwisu CRN.
]]>Powołano wspólne kierownictwo nowej korporacji. CEO i szefem rady dyrektorów Hitachi Vantara oraz Hitachi Global Digital Holdings został Toshiako Tokanuga, który ma skoncentrować się na generowaniu nowych synergii w grupie oraz "tworzeniu wartości" dla partnerów i klientów. Do zarządu Hitachi Vantara dołączył w 2019 r.
W gronie liderów firmy po fuzji znalazł się także Brian Housholder, odpowiedzialny za infrastrukturę oraz Brad Surak, który został szefem rozwiązań cyfrowych.
Kolejne scalanie struktur w japońskiej korporacji następuje ponad 2 lata po powołaniu Hitachi Vantara, które połączyło biznes infrastruktury centrów danych i pamięci masowych (Hitachi Data Systems), rozwiązania IoT (Hitachi Insight Group) oraz big data (Pentaho).
Artykuł Fuzja w globalnej korporacji pochodzi z serwisu CRN.
]]>Artykuł Akademia IT Tech Data – edycja jesień 2019 pochodzi z serwisu CRN.
]]>Pełna relacja z Akademii IT Tech Daty, której patronem był magazyn CRN Polska.
Artykuł Akademia IT Tech Data – edycja jesień 2019 pochodzi z serwisu CRN.
]]>Artykuł Akademia IT Tech Data: wizja przyszłości pochodzi z serwisu CRN.
]]>Przy sporym zróżnicowaniu poruszanych zagadnień poszczególne prezentacje łączył wspólny mianownik. Otóż przyszłość należy do rozwiązań skrojonych na miarę potrzeb klienta, a producenci wychodzą naprzeciw tym oczekiwaniom, przygotowując ofertę, którą partnerzy mogą dostosować do oczekiwań różnych użytkowników. Integratorzy powinni skoncentrować się na transformacji biznesu klienta, a nie technologii i przedstawić mu nie tyle pojedynczy produkt, ile całe rozwiązanie. Kompleksowość (polegająca m.in. na łączeniu oferty różnych dostawców), łatwość zarządzania, skalowalność i elastyczność zyskują na znaczeniu. Rośnie przy tym rola usług, doradztwa i wiedzy partnerów. Kluczowe są również dane użytkowników i możliwość ich przetwarzania. Zachęcano, by partnerzy zainteresowali się nowymi i rozwijającymi się technologiami, takimi jak analityka, sztuczna inteligencja, IoT, chmura i bezpieczeństwo. Często zresztą wszystkie je łączy się w jednym rozwiązaniu.
Ile AI potrzebuje klient?
Przykładem rozwiązań „nowej generacji” jest Internet rzeczy. Według analityków Gartnera platforma IoT osiągnęła swoją dojrzałość w ciągu zaledwie trzech lat. Andrzej Bugowski, Director IoT & Analytics, East Region w Tech Dacie, przekonywał, że to dobry moment, żeby zainteresować się związaną z tym ofertą dystrybutora.
– Ilu z was podczas spotkań z klientami zadało im pytanie: „Jak wiele sztucznej inteligencji jest potrzebnych w twojej firmie?”. Nie przegapcie tego momentu, który właśnie nadszedł – radził partnerom Andrzej Bugowski.
Jak informowano podczas prezentacji, Tech Data weszła we współpracę z producentami, przygotowując rozwiązania do transformacji biznesu, obejmujące IoT i analitykę, które nierozerwalnie się ze sobą łączą, a także szersze pakiety, obejmujące również infrastrukturę, oprogramowanie i usługi.
Przykładem takiego ekosystemu jest portfolio Dell Technologies, sięgające od przetwarzania brzegowego, przez rdzeń sieci, do chmury. Konsekwencją zmian w kierunku kompleksowości są też alianse kolejnych producentów. Przykładowo, platforma IoT Cumulocity od Software AG obejmuje narzędzia analityczne i oprogramowanie osadzone na serwerach Della, a całość rozwiązania jest „uszyta” dla klientów, których obsługą mogą zająć się partnerzy i – jak zapewniano – da się ją zastosować w każdej branży na potrzeby monitorowania i analiz.
Pozyskać 70 proc. klientów
Jak wynika z danych przytoczonych przez Della, tylko 28 proc. klientów już teraz podlega transformacji cyfrowej. Pozostałym można i warto ją zaproponować. Według Della w infrastrukturze serwerowej należy rozwijać się w takich trzech kierunkach: bezpieczeństwa, skalowalności i sztucznej inteligencji – automatyki. Na tym koncentruje się producent. Sprzęt w budowie centrum danych staje się podstawą do w warstwy software’owej.
– Nowoczesne data center jest jak Shrek, który powiedział, że ogry są jak cebula i mają warstwy – komentuje Piotr Nowik, który odpowiada za dostawców usług w polskim oddziale VMware’a.
Według niego zdefiniowane programowo centrum danych składające się z trzech warstw (serwery, pamięci masowe, sieciówka) to pierwszy krok w wejściu przedsiębiorstwa do chmury (a to według menedżera interesuje wielu klientów), bo infrastruktura bazuje na aplikacjach.
Analityka i chmura stały się również niezmiernie istotne w rozwiązaniach bezpieczeństwa cyfrowego. Przykładem jest Cisco AMP (Advanced Malware Protection), które ilustruje również trend rozwoju kompleksowych i uniwersalnych rozwiązań. AMP chroni sieć, pocztę e-mail w chmurze, punkty końcowe i można go osadzić na różnej architekturze. Z kolei Barracuda wskazuje na inny w jej ocenie perspektywiczny obszar rozwiązań bezpieczeństwa cyfrowego – Web Application Firewall oraz WAF as a Service.
– Każdy sektor potrzebuje tego rozwiązania. Każdy serwer WWW powinien być chroniony przez WAF, bo kontrolujemy nie więcej niż 20 proc. kodu – przekonywał Jarosław Prokop, inżynier Barracudy.
Według niego obecnie tylko 10 proc. aplikacji webowych jest chronionych przez WAF. Rozwiązanie to odpowiada za inspekcję ruchu przeglądarkowego, a do tego monitoruje transfery, które wracają z serwerów. Jego rolą jest ochrona aplikacji, ale i tutaj priorytetem jest uniwersalność, co zapewniają funkcje load balancera.
Pieniądze w paczkach
Pakietowe rozwiązania, które mają ułatwić partnerom wdrożenia, wprowadził również IBM (wspólnie z Red Hatem). Są to Cloud Paki – modularne pakiety oprogramowania, bazujące na kontenery, przeznaczone do aplikacji, danych, integracji, automatyzacji czy zarządzania rozwiązaniami wielochmurowymi. Łączą oprogramowanie i sprzęt, a dzięki budowie na bazie serwera rackowego umożliwiają w razie potrzeby zwiększenie mocy obliczeniowej. Przy czym dodatki do „paczek” mogą opracowywać partnerzy.
– Chmura, mobilność, sztuczna inteligencja oraz edge computing i Internet rzeczy definiują to, co się dzieje na rynku, a wspólnym mianownikiem są dane. Zapewnienie do nich ciągłego dostępu jest niezmiernie ważne. Łatwo można zmienić dostawcę, jeśli obecny zawiedzie… – przypominał Wojciech Cegliński, Channel Manager NEE w Veeam Software.
Według przytoczonych przez niego badań coraz więcej firm używa kilku rozwiązań do backupu, ale ponad połowa z nich chce zmienić dostawcę, więc możliwości na rozwój są niemałe. Przy czym trzy czynniki szczególnie decydują o wyborze lub o zmianie rozwiązania. Są to: koszty, kompleksowość i wydajność.
Warto wspomnieć, że od czwartym kwartale br. rusza nowy sposób licencjonowania – Veeam Universal Licence – dostosowany do potrzeb, które są związane z rozproszeniem danych w różnych środowiskach.
Rosnące znaczenie integracji danych, uniwersalności i zaawansowanej analityki pokazują również zmiany w Hitachi. Dwa lata temu powołano korporację Hitachi Vantara, która łączy rozwiązania infrastrukturalne z platformą analityczną end-to-end Pentaho. Z kolei Microsoft przybliżył wdrażanie gotowych rozwiązań od Azure Site Recovery do SAP on Azure. Usługa ASR umożliwia odzyskiwanie po awarii lokalnych i wirtualnych maszyn.
Siła woli
Podczas Akademii Tech Data poruszano nie tylko tematy techniczne. Można było usłyszeć wskazówki, jak skutecznie zaplanować i realizować udane wdrożenia. Jak wynika z prezentacji Lenovo, istotna jest siła woli i świadomość, jakie słabości trzeba przezwyciężyć. Jedną z nich jest „magia chwili bieżącej”, czyli niezdolność do odraczania gratyfikacji. Przykładowo w przeprowadzonym badaniu zapytano ankietowanych, czy wolą 100 dol. teraz czy 110 dol. za tydzień i aż 80 proc. wybrało ten pierwszy wariant.
Konsekwencją takiego podejścia w biznesie jest to, że ludzie niechętnie podejmują wysiłek, wiedząc, że nagroda jest odsunięta w czasie. Remedium powinno być dzielenie dużego projektu na małe etapy tak, aby nagroda (realizacja zadania, przychód) przyszła możliwe szybko, ponieważ perspektywa nawet wielkiego sukcesu za kilka lat mało kogo mobilizuje.
Więcej zdjęć z jesiennej Akademii IT Tech Data w Łodzi znajduje się w Galerii crn.pl.
Trzy pytania do… Piotra Zneykusa, Business Development Managera, Team Leadera Dell Enterprise w Tech Dacie
Podczas akademii często była mowa o tym, aby klientom oferować kompletne rozwiązania. Czy na polskim rynku rzeczywiście jest na nie duże zapotrzebowanie, czy też raczej klienci wolą zamówić, dajmy na to, pojedynczy serwer i na tym kończą zakupy?
W mojej ocenie mniej więcej połowa rozwiązań oferowanych przez nasz zespół jest sprzedawanych kompleksowo. Ten rynek jednak z pewnością będzie rósł, bo tego oczekują klienci. Oczywiście nie wszyscy są przekonani do takiej koncepcji. Dlatego widzimy potrzebę uświadamiania przedsiębiorcom zalet i potrzeby inwestycji w komplementarne systemy. To ważna rola zarówno partnerów, jak i producentów.
Jednak czy klienci nie patrzą głównie na cenę?
Sektor komercyjny nie kieruje się wyłącznie ceną, lecz stara się dostosować środowisko do swoich potrzeb. Dlatego partnerzy nie powinni koncentrować się na cenniku, lecz na oczekiwaniach użytkowników i najlepiej, gdy mogą je zaspokoić kompleksowo. Trzeba przede wszystkim rozmawiać z klientem – takie jest moje doświadczenie z firmy integratorskiej, w której pracowałem. Są jeszcze tacy partnerzy, którzy mówią nam: znalazłem klienta, zapytajcie go, czego potrzebuje, a ja mu to sprzedam. Nie tędy droga. To partner musi znać biznes przedsiębiorcy i związane z tym oczekiwania, proponować, co można ulepszyć, rozbudować, wymienić itd. Partnerzy muszą być aktywni. Tym, którzy nie poszerzają wiedzy, będzie coraz trudniej na rynku.
W jakich sektorach obserwujecie obecnie zapotrzebowanie na komplementarne rozwiązania?
W małych i średnich firmach, w których pracuje 50-100 osób. W rozwiązania infrastrukturalne inwestują również startupy. Często zaczynają od chmury, jednak gdy zaczynają rosnąć, chcą mieć część zasobów u siebie. Na innowacje jest także otwarty sektor produkcyjny, a to ogromny rynek. Oprócz tego obserwujemy duże zainteresowanie w sektorze medycznym, zarówno publicznym, jak i prywatnym. Partnerzy powinni skoncentrować się na pewno na backupie danych, bo to wciąż w dużej mierze niezagospodarowany temat w przedsiębiorstwach, a także na bezpieczeństwie oraz analityce i IoT.
Artykuł Akademia IT Tech Data: wizja przyszłości pochodzi z serwisu CRN.
]]>Artykuł Tech Data: IoT rozwinie skrzydła pochodzi z serwisu CRN.
]]>– W tym roku uruchomiliśmy projekt pod nazwą Transformation Program, by wyszukać odpowiednich partnerów, bazując na ich dotychczasowej aktywności, i zaproponować im współpracę – informuje Andrzej Bugowski, który objął stanowisko East Region Director IoT & Analytics w Tech Dacie.
Dyrektor podkreśla, że IoT i analityka są ze sobą integralnie związane. Po to gromadzi się dane z czujników, by wyciągać na ich podstawie istotne wnioski dla biznesu. To właśnie powinno być celem wdrożenia.
14 mld zł za 2 lata
Panel „IoT & Analityka” był nowym i jednym z dwóch głównych bloków tematycznych łódzkiej Akademii IT. Podczas szkoleń prezentowano dane, które wskazywały na wielki potencjał i szybki rozwój Internetu rzeczy. Według IDC polski rynek IoT w 2018 r. był wart ponad 2 mld dol., czyli blisko 8 mld zł. W 2021 r. inwestycje mają przekroczyć 3,7 mld dol. (+14,5 proc. każdego roku). Dane obejmują nakłady na sensory, aplikacje, usługi i sprzęt, w tym serwery i macierze. Projekty IoT bazują na sieci, która charakteryzuje się autonomicznym (bez udziału człowieka) dostarczaniem danych, zarządzaniem nimi i monitorowaniem. Podstawę stanowią dane i narzędzia analityczne. Najważniejsze czynniki skłaniające klientów do takich inwestycji to poprawa wydajności i redukcja kosztów.
Najczęściej tego rodzaju rozwiązania są wykorzystywane do monitorowania towarów, a także w inteligentnych sieciach energetycznych (smart grid), w zakładach produkcyjnych oraz w inteligentnych domach. Najszybciej zwiększają się obroty na IoT w segmencie inteligentnych budynków, ale możliwości zastosowań są w wielu innych sektorach.
Typowa droga klienta do rozwiązania IoT zaczyna się od połączonych urządzeń (jak systemy magazynowe), wiedzie przez zdalne zarządzanie i kontrolę (np. nad maszynami) po rozwiązania bazujące na danych i analityce, które umożliwiają m.in. predykcję – wskazywał Ozgur Yarar, odpowiedzialny za IoT w regionie EMEAR w Cisco.
Tomasz Jangas, Solutions Consultant Hitachi Vantara, podkreślał, że w rozwiązaniach IoT na znaczeniu będą zyskiwać mechanizmy przetwarzania danych w jak najszybszym czasie oraz możliwość analizy predykcyjnej.
Kolejnym trendem jest dążenie do uproszczenia zarządzania złożonej infrastruktury IoT dzięki narzędziom, które pozwalają np. zdalnie łączyć się z urządzeniami, wykonywać prace związane z ich utrzymaniem – zaznaczano podczas prezentacji VMware. Istotne jest przetwarzanie danych na skraju sieci, bez konieczności wysyłania informacji do chmury, co pozwala szybko wykryć anomalie – podkreślano podczas prezentacji Microsoftu.
Efektywność systemów IoT wspomaga zastosowanie sztucznej inteligencji.
– Trzeba się skupić na tym, by zastosować sztuczną inteligencję do poprawy efektywności biznesu. Te narzędzia już istnieją, należy więc wymyślić sposób na ich wykorzystanie – twierdzi Wojciech Janusz, System Engineer w Dell Technologies.
Rozwiać obawy
Z zaprezentowanych danych wynika, że dla użytkowników największy problem stanowi bezpieczeństwo. Wśród istotnych wyzwań pojawia się też trudna do przewidzenia skalowalność.
Andrzej Bugowski przekonuje, że dobre planowanie i sprawna kooperacja pozwalają poradzić sobie z kłopotami. Dlatego do wdrożeń trzeba podchodzić z myślą o tym, aby rozwiązywały konkretne problemy klientów.
– Integrator musi wyraźnie powiedzieć klientowi, co ten uzyska, inwestując w takie czy inne rozwiązanie. Kluczowe jest wyliczenie ROI, czyli zwrotu z inwestycji, a do tego niezbędna jest wiedza dotycząca branży, w której działa określony użytkownik – podkreśla Andrzej Bugowski.
Przedstawiciel Tech Daty dodaje przy tym, że warto korzystać z już dostępnych narzędzi i tworzyć nowe rozwiązania na ich bazie. Zarówno dystrybutor, jak i producenci deklarują wsparcie dla integratorów w realizacji takiego zadania.
Najważniejsze trendy w centrach danych
Drugi blok tematyczny tegorocznej Akademii Tech Data – „Data Center & Networking”, poświęcono infrastrukturze centrów danych i sieciom, w tym kluczowym rynkowym trendom: przetwarzaniu w chmurze i rozwiązaniom definiowanym programowo. Partnerzy mogli zapoznać się z całą gamą rozwiązań infrastrukturalnych D-Linka – są to nowe przełączniki przemysłowe i zarządzalne, przeznaczone zarówno dla MŚP, jak i środowisk korporacyjnych.
Cisco przybliżyło inteligentną, prostą i bezpieczną sieć LAN. Jest łatwa w konfiguracji i zautomatyzowana, co pozwala na autonomiczną komunikację jej elementów, uczenie się i reakcję na zagrożenia.
Jak wynika z prezentacji VMware, SD-WAN jest nieunikniony. Trend potwierdzają prognozy analityków. Według IDC w ujęciu globalnym wzrost przychodów z SD-WAN wyniesie 77,2 proc. co roku w latach 2018-2022.
Partnerzy poznali również nowy sposób licencjonowania Veeam – Veeam Instance Licensing. Pozwala on korzystać klientom z pojedynczego typu licencji na wszystkie obciążenia – fizyczne, VMware, Hyper-V i AWS, on-premise i w chmurze publicznej. Kolejna generacja licencji ma ułatwić realizację strategii wielochmurowej. Nie zabrakło tematu chmury publicznej Microsoftu w kontekście kanału partnerskiego, jak również tworzenia środowiska chmurowego (prywatnego i hybrydowego) na bazie rozwiązań IBM Storage.
Akademii towarzyszyły warsztaty Dell EMC, na których można było poznać m.in. rozwiązania do modułowej budowy serwerowni (DCI). Obejmuje szafy rackowe, zasilacze awaryjne, dystrybucję energii i konsole zarządzania KVM i KMM. Tematem warsztatów były również pamięci masowe Compellent. Dostawca przekonywał partnerów o wysokich marżach, jakie można wypracować na rozwiązaniach sieciowych Dell EMC.
Trzy pytania do Andrzeja Bugowskiego, east region directora IoT & Analytics w Tech Data
Dlaczego tak wiele projektów IoT się nie udaje? Według Cisco 60 proc. z nich utknęło na etapie proof of concept.
Wydaje się, że potrzeby klientów nie zostały trafnie określone, stąd błędy w przygotowaniu projektów. A gdy już doszło do ich realizacji, nie pojawił się oczekiwany zwrot z inwestycji.
Jakie jest zatem właściwe podejście?
Projekty wymagają połączenia sił integratorów oraz dystrybutora i producentów, którzy zapewniają wiedzę i wsparcie techniczne, koordynując działanie takiego „konsorcjum”. Obecnie mamy w zespole trzech specjalistów od IoT i analityki. Wspierają nas fachowcy ze strony producentów. Wzajemnie informujemy się o projektach i koordynujemy działania. Podam przykład: w handlu detalicznym realizowano zamówienia, które umożliwiły zbieranie danych o rotacji towaru i ułatwiały optymalne rozmieszczenie asortymentu w sklepie. Na półkach zainstalowano czujniki. Do tego dochodziła łączność sieciowa, zasoby do przetwarzania i gromadzenia informacji, oprogramowanie oraz analityka. W takich projektach partnerzy łączą siły. Przykładowo jeden zna się lepiej na czujnikach, inny na budowie półek itd. Najlepiej jednak, gdy wszyscy mają dużą wiedzę z danej dziedziny, czyli w tym przypadku na temat retailu. W tego typu konsorcjach jeden integrator jest liderem.
Tylko czy tylu podmiotom łatwo się dogadać? Jak podzielić pracę, zyski?
Oczywiście najpierw trzeba wypracować porozumienie dotyczące tego, jaki jest wkład każdego z partnerów i jakie on potem „wyjmie” zyski. Doświadczenie z innych rynków uczy, że wypracowanie dobrego kompromisu jest jak najbardziej możliwe. My, jako dystrybutor, organizujemy takie zespoły i zamawiamy sprzęt u producentów. Warto podkreślić, że wdrożenia Internetu rzeczy i analityki bazują na produktach od różnych dostawców. W projekty mogą być angażowani integratorzy, którzy wcześniej, dajmy na to, sprzedawali serwery i zajmowali się sieciówką, a przy tym znają się na bezpieczeństwie. Ale są też firmy, które na przykład specjalizują się w automatyce przemysłowej. Te drugie szukają obecnie dojścia do kanału sprzedaży IT.
Artykuł Tech Data: IoT rozwinie skrzydła pochodzi z serwisu CRN.
]]>Artykuł Hitachi Vantara: od danych do innowacji pochodzi z serwisu CRN.
]]>– Praca osób na stanowisku CIO będzie bez znaczenia, jeśli nie zaczną brać aktywnego udziału w procesie rozwijania przedsiębiorstw. Nadszedł moment, gdy trzeba myśleć o przekształceniu funkcji Chief Information Officer w Chief Innovation Officer. To oznacza, że w niepamięć będzie musiał odejść stereotyp dotyczący typowych CIO, podejmujących decyzje na bazie dostępnych rozwiązań technologicznych, skupiających się głównie na wewnętrznych, zbiurokratyzowanych procesach, bez większych kwalifikacji biznesowych i z reguły z niewystarczającym budżetem – przekonywała Renée McKaskle, która sama pełni funkcję CIO w Hitachi Vantara.
Osoby na stanowiskach CIO powinny zdecydowanie bardziej skupiać się na efektywności i zyskowności prowadzonego biznesu, poszukiwać nowych możliwości biznesowych i nieustannie dbać o poprawianie jakości oferowanych produktów oraz usług i ułatwianie korzystania z nich. To oczywiście wymaga regularnej współpracy CIO z innymi członkami zarządu, przede wszystkim odpowiedzialnymi za działy, które uniezależniły się od firmowego IT, bo przykładowo używają rozwiązań chmurowych firm trzecich.
Jeszcze wydajniej w centrach danych
Podczas konferencji NEXT 2018 producent zaprezentował szereg nowości, które wkrótce trafią do jego oferty. Należy do nich nowa wersja konwergentnego rozwiązania dla centrów danych – Hitachi Unified Compute Platform HC. Urządzenie UCP HC V124 N składa się z prekonfigurowanych i przetestowanych serwerów, pamięci masowej i przełączników sieciowych. To pierwszy zestaw z tej rodziny, który wyposażono wyłącznie w pamięć flash bazującą na protokole NVMe. Zawiera on 12 dysków, z których cztery są funkcjonującymi jako bardzo szybki cache modułami Intel Optane 3D XPoint, a pozostałe osiem to dyski SSD NVMe, zapewniające do 72 TB pojemności. System ten przeznaczony jest głównie do prowadzenia analiz w czasie rzeczywistym oraz wydajnego przetwarzania transakcji.
Rozbudowie uległy także urządzenia Hitachi Advanced Server DS225, które otrzymały m.in. specjalistyczne układy graficzne Nvidia Tesla GPU, znacznie przyspieszające pracę wirtualnych desktopów, aplikacji CAD oraz narzędzi analitycznych. Do rodziny Hitachi Unified Compute Platform dołączyła też nowa wersja oprogramowania zarządzającego infrastrukturą UCP Advisor, uzupełniona o rozbudowane funkcje automatyzujące ten proces, a także skracające czas wdrażania nowych systemów z wielu dni do kilku godzin.
Natomiast funkcjonalność rozwiązania do zarządzania danymi Hitachi Content Platform (HCP) została rozszerzona o możliwość współpracy ze środowiskiem chmurowym Amazon S3, co – według szacunków producenta – może pozwolić na obniżenie kosztów obsługi środowiska pamięci masowych nawet o 60 proc. Zwiększono też możliwości obrazowania aktualnego stanu wydajności platformy HCP, dzięki rozwiązaniu Hitachi Content Monitor.
Sztuczna inteligencja w służbie IT
Kolejnym rozwiązaniem, którego znacznie rozbudowaną wersję zaprezentowano podczas konferencji NEXT 2018, jest dostępna w modelu subskrypcyjnym usługa Smart Data Center (może być wdrożona w chmurze lub w siedzibie firmy). Dzięki niej administratorzy zyskują aktualizowane w czasie rzeczywistym dane o wszystkich aspektach związanych z funkcjonowaniem ich centrów danych, takich jak stan pracy urządzeń, ich wydajność, dostępna przestrzeń dyskowa, jak również poprawność funkcjonowania systemów zasilających i chłodzących.
Dzięki partnerstwu z firmą Vigilent w usłudze Smart Data Center wprowadzono rozbudowany, bazujący na sztucznej inteligencji system zarządzania urządzeniami chłodzącymi oraz mierzącymi temperaturę w centrach danych. Zapewnia to bardziej skuteczne kierowanie przepływem powietrza i w efekcie – dzięki skuteczniejszemu chłodzeniu – uzyskanie większej niezawodności urządzeń oraz możliwości ich gęstszego upakowania.
Kimberly King, wiceprezesa Hitachi Vantara, odpowiedzialnej za współpracę z partnerami
W jakim stopniu stworzenie Hitachi Vantara wpłynęło na kształt programu partnerskiego?
Stworzyliśmy go praktycznie od nowa. Odeszliśmy od najpopularniejszego na świecie modelu bazującego na kategoryzacji partnerów według wielkości zrealizowanej sprzedaży. W naszym nowym programie partnerskim ich kategoryzacja odbywa się według biznesowego modelu działania. Zdefiniowaliśmy cztery kategorie partnerów w zależności od charakteru współpracy z klientami: resellerzy (Resell), kreatorzy rozwiązań (Create), integratorzy systemowi (Deliver) oraz dostawcy usług zarządzanych i chmurowych (Manage). Dla każdego z tych modeli przygotowane są też merytoryczne dziedziny, w których firmy mogą się specjalizować i certyfikować. Oczywiście dany partner może być przypisany do kilku kategorii i zdobyć wiele certyfikatów. W przeszłości firmy te były niejako zmuszane do bycia przede wszystkim resellerami, nawet jeśli chciały funkcjonować jako dostawcy usług. Zrezygnowaliśmy z takiego podejścia, z wszelkiego typu nacisków i hierarchii – teraz skupiamy się głównie na rozwiązaniach i niesionych wartościach dla klientów.
Hitachi Vantara oferuje wiele niszowych rozwiązań, które wymagają specjalistycznych kwalifikacji. Jaki model współpracy proponujecie partnerom, którzy ich nie mają?
Nasi partnerzy coraz częściej współpracują ze sobą podczas realizacji projektów. My zaś staramy się nieustannie powiększać naszą bazę wiedzy o partnerach, aby w razie potrzeby móc zarekomendować tego, który ma właściwe kwalifikacje. Wiem, że na niektórych rynkach ten model budzi wiele kontrowersji i obaw, dlatego zanim do takiej współpracy dojdzie, konieczne jest precyzyjne ustalenie zasad i wyznaczenie partnera wiodącego w danym projekcie. Jest to ważne także dla klientów, którzy muszą znać zasady kooperacji i mieć jeden główny punkt kontaktu w przypadku problemów. Natomiast muszę przyznać, że ten model zyskuje ostatnio na popularności, bo partnerzy po prostu nie mają wyjścia. Widzieliśmy już projekty, w których jeden wiodący integrator korzystał z pomocy kilkunastu innych firm.
Połączenie firm Hitachi Data Systems, Pentaho i Hitachi Insight Group pozwoliło na stworzenie zupełnie nowej oferty, dość unikalnej na rynku. Ale jak zareagowali na to partnerzy, którzy wcześniej specjalizowali się tylko w jednej dziedzinie?
Przez ostatnie pół roku widzimy bardzo dużą zmianę i wzrost zainteresowania całą ofertą Hitachi Vantara. Obecnie już ponad 40 proc. partnerów ma kwalifikacje w przynajmniej trzech obszarach związanych z oferowanymi przez nas rozwiązaniami, a jeszcze więcej w dwóch. To nawet dla nas zaskakująco duży wzrost, nie spodziewaliśmy się go. Dlatego staramy się upraszczać proces certyfikacji, prowadzimy wiele szkoleń online i warsztatów. Wcześniej potrzeba było 3–4 tygodni szkolenia, żeby zostać partnerem Pentaho. Dziś wystarczą trzydniowe warsztaty, aby uzyskać podstawową certyfikację, która ułatwia zapoznanie się z rozwiązaniem i wprowadzenie go do własnej oferty.
Artykuł Hitachi Vantara: od danych do innowacji pochodzi z serwisu CRN.
]]>Artykuł S4E: umowa dystrybucyjna z globalną firmą pochodzi z serwisu CRN.
]]>Umowa między firmami dotyczy rozszerzenia wsparcia narzędzi do zarządzania danymi, oferowanymi dotychczas przez spółkę wspólnie z Commvault, o platformę sprzętową klasy premium. Hitachi Vantara wejdzie w skład rozwiązań skupionych w pionie CNQ w S4E (Commvault, Nutanix, Quantum).
Dystrybutor deklaruje również, że chce być aktywnym graczem na rynku rozwiązań BI, które dostarcza Hitachi Vantara (oprogramowanie Pentaho).
W ocenie zarządu umowa będzie miała znaczący wpływ na wyniki finansowe spółki w 2019 r.
Ostatnio VAD z grupy ABC Data pokazał stratę. W II kw. br. S4E zwiększyło przychody ze sprzedaży o 65,5 proc., jednak ze względu wzrost kosztów wynik netto był na minusie (-2,64 mln zł przy 71,45 mln zł przychodów).
Ujemny był również bilans netto 2017 r.
Artykuł S4E: umowa dystrybucyjna z globalną firmą pochodzi z serwisu CRN.
]]>