Artykuł AB wreszcie ma umowę z Dell EMC pochodzi z serwisu CRN.
]]>AB w końcu II kw. br. uzyskało kontrakt dystrybucyjny Dell EMC. Prezes Andrzej Przybyło podkreślał na konferencji wynikowej, że to najważniejsza umowa, spośród wielu, jakie od lat podpisała spółka.
„Od 20 lat walczyliśmy o kontrakt z EMC. Ciągle mówili, że nie jesteśmy przygotowani” – mówił szef grupy. Twierdzi, że w końcu udało się przekonać producenta, pokazując sukcesy AB we współpracy z innymi markami w segmencie VAD.
„Bez ich produktów nie można zbudować żadnego projektu infrastruktury ani przetargu. Teraz jesteśmy w stanie obsługiwać największe projekty”” – przekonywał o znaczeniu nowej umowy lider grupy.
Przyznał, że wcześniej zdarzały się sytuacje, iż partnerzy sygnalizowali, że nie mogą obsługiwać jakiegoś przetargu z AB, bo dystrybutor nie ma EMC.
Andrzej Przybyło poinformował, że umowę podpisano w II kw. br., natomiast teraz AB zaczyna współpracę z Dell EMC „na pełnym rozbiegu”.
Według danych AB w II kw. 2020 r. wzrost przychodów w segmencie enterprise na polskim rynku wyniósł 11 proc. (spółka nie ujawnia kwot).
Artykuł AB wreszcie ma umowę z Dell EMC pochodzi z serwisu CRN.
]]>Artykuł Ochrona danych priorytetem Dell EMC pochodzi z serwisu CRN.
]]>Kolejnym wartym zainteresowania integratorów produktem jest oprogramowanie DD Boost, które wykorzystuje stworzony przez Symanteca protokół OST (Open Storage Technology) do znacznego, często ponaddwukrotnego przyspieszania procesu backupu danych. Efekt ten uzyskiwany jest głównie dzięki deduplikacji wykonywanej przez agenta na źródłowym nośniku danych, co sprawia, że przez sieć przesyłane są tylko unikalne bloki informacji. W najnowszej wersji DD Boost dostęp do nośnika backupowego może być uzyskany przez protokoły CIFS i NFS, dzięki czemu aplikacje widzą go jako pamięć masową NAS. Dla aplikacji, które nie zostały przystosowane do współpracy z DD Boost, przygotowany został system plików Boost FS.
Trzon oferty urządzeń Dell EMC do backupu stanowi rodzina PowerProtect DD. Urządzenia te zapewniają przedsiębiorstwom efektywną ochronę danych, zarządzanie nimi i odzyskiwanie ich w przypadku awarii. Pracują pod kontrolą oprogramowania DD Operating System (DDOS), które gwarantuje poprawną współpracę z posiadanymi przez klienta pamięciami masowymi, narzędziami Dell EMC PowerProtect Software i Data Protection Suite oraz z aplikacjami firm trzecich do backupu i archiwizacji.
W portfolio Dell EMC znajdują się cztery modele urządzeń PowerProtect DD (DD3300, DD6900, DD9400 i DD9900). Ich maksymalna pojemność to 1,25 PB, a wysoka wydajność zapewnia przyjęcie – w zależności od modelu – od 7 do 94 TB danych na godzinę. Według analiz producenta w porównaniu z osiągami poprzedniej generacji urządzeń wydajność backupu wzrosła o 38 proc., a maksymalna pojemność – o 30 proc. Dzięki zastosowaniu większych twardych dysków ilość miejsca potrzebnego na backup danych o konkretnej objętości zmniejszono o 39 proc.
Wydajność urządzeń można zwiększyć także dzięki opcji instalacji kart sieciowych z portami 25 oraz 100 GbE. Między innymi dzięki nim oraz wbudowanym dyskom SSD w przypadku awarii podstawowego środowiska wirtualizacyjnego możliwe jest natychmiastowe przywrócenie dostępu do 64 wirtualnych maszyn z wydajnością do 60 tys. IOPS (pomiaru dokonano na urządzeniu PowerProtect DD9000 z systemem operacyjnym DDOS 7.0, z blokami danych o wielkości 8 kB, 100 proc. odczytu, z włączonym protokołem DD Boost). Równolegle uruchomione wirtualne maszyny mogą być kopiowane z powrotem do przywróconego do pracy środowiska produkcyjnego.
Urządzenie PowerProtect DD jest skonstruowane tak, by zapewnić odzyskanie danych w każdej, nawet beznadziejnej sytuacji. Producent wziął pod uwagę wszystkie prawdopodobne scenariusze. Wbudowany w system operacyjny DDOS mechanizm szczególnie skrupulatnie weryfikuje integralność zapisywanych danych. Bazujący na sumach kontrolnych algorytm korekcji błędów I/O eliminuje ewentualną potrzebę powtórzenia wykonania zadania backupowego, gwarantuje stworzenie kopii na czas i utrzymanie się działu IT w reżimie umowy SLA. Wszystkie dyski w urządzeniu połączone są w strukturę RAID 6, dzięki której nawet równoczesna awaria dwóch napędów nie stanowi problemu. W obudowie cały czas znajdują się także nieużywane dyski zapasowe, gdyby zaistniała nagła konieczność odbudowy struktury RAID.
Do rozwiązania PowerProtect DD można dokupić usługę Dell EMC Cloud Tier zapewniającą dodatkowe 2 PB logicznej pojemności (po przeprowadzeniu deduplikacji) w przestrzeni chmurowej w celu długoterminowego przechowywania danych.
W ofercie rozwiązań do ochrony danych Dell EMC ma także urządzenie nowej generacji PowerProtect X400. Składa się z serwera Dell EMC PowerEdge, półek dyskowych (hybrydowych X400H i all-flash X400F) oraz oprogramowania Dell EMC PowerProtect Software. Architektura rozwiązania umożliwia jego skalowanie – wraz z dołożeniem każdej półki dyskowej rośnie jego wydajność oraz pojemność.
Do każdej platformy X400 można podłączyć od jednej do czterech półek dyskowych zawierających także dodatkowy kontroler, dzięki któremu automatycznie zwiększana jest jej wydajność. Każda hybrydowa półka dyskowa X400H może mieć maksymalną pojemność 96 TB, zapewnia przepustowość 10 TB/godz. oraz wydajność 10 tys. IOPS, co sprawia, że da się uruchomić dziesięć wirtualnych maszyn bezpośrednio w urządzeniu backupowym. W przypadku półek dyskowych all-flash X400F maksymalna pojemność to 112 TB, przepustowość – 27 TB/godz., a wydajność – 33 tys. IOPS (30 maszyn wirtualnych). Wartości te rosną liniowo, w zależności od liczby podłączonych półek dyskowych.
Oprogramowanie PowerProtect X400 zawiera mechanizm maszynowego uczenia, który kontroluje obciążenie serwera i dysków, głównie podczas deduplikacji. Po dołożeniu do X400 kolejnych półek dyskowych zgromadzone wcześniej dane automatycznie są rozmieszczane także na nowych nośnikach, co wpływa na zwiększenie szybkości ich odczytu, gdy zajdzie konieczność przywrócenia środowiska po awarii.
Daniel Olkowski
Principal System Engineer, Dell Technologies
Naszym oczkiem w głowie jest backup środowisk wirtualnych VMware. Gwarantujemy uruchamianie wirtualnych maszyn z bardzo dużą wydajnością bezpośrednio na urządzeniu backupowym, aby administratorzy mogli spokojnie skupić się na znalezieniu przyczyny awarii środowiska podstawowego i jej wyeliminowaniu. Interesujący jest także model licencjonowania, bowiem korzystanie z tej funkcji jest rozliczane według liczby fizycznych gniazd procesorów w serwerach maszyn wirtualnych, a nie według ilości zabezpieczanych danych. Dzięki temu, według raportów analityków, do rozwiązań backupowych Dell EMC należy ponad trzy czwarte rynku.
Dell EMC ma także w ofercie uniwersalne oprogramowanie do backupu Data
Protection Suite. Jest przeznaczone do pracy w heterogenicznych środowiskach zawierających blokowe macierze dyskowe wykonujące kopie migawkowe (snapshot), serwery NAS i biblioteki taśmowe. Zapewnia także backup do zasobów pamięci masowych w chmurze publicznej.
Największe korzyści z posiadania tego narzędzia odniosą oczywiście użytkownicy rozwiązań PowerProtect DD, dzięki zapewnionej integracji narzędzi do deduplikacji, szyfrowania, natychmiastowego dostępu do maszyn wirtualnych VMware lub wykonywania backupu bezpośrednio z agentów zainstalowanych na urządzeniach końcowych.
Oprogramowanie to gwarantuje bardzo dużą elastyczność konfiguracji procesów backupowych – administratorzy sami ustalają poziom ochrony danych, w zależności od ich ważności dla działów biznesowych. Podobnie jak w przypadku narzędzia PowerProtect Software, administratorzy wielu aplikacji i baz danych mogą zarządzać procesem backupu bezpośrednio z ich interfejsu.
Małgorzata Sprawnik
Business Development Manager Dell Enterprise, Tech Data
W październiku rozszerzyliśmy ofertę produktów Dell o rozwiązania sprzedawane pod marką Dell EMC i już widzimy, że resellerzy i integratorzy doceniają obecność wszystkich produktów u jednego dystrybutora. Dzięki temu partnerzy mogą kupić u nas wszystkie komponenty potrzebne do danego wdrożenia i otrzymać za nie „jedną fakturę”. Mogą liczyć na wsparcie techniczne, finansowanie projektów oraz logistykę – ma to znaczenie przede wszystkim dla mniejszych firm. Bardzo dużą popularnością cieszą się rozwiązania
Dell EMC do backupu. Znane są przede wszystkim z bardzo efektywnego mechanizmu deduplikacji, do którego producent nabył prawa wraz z przejęciem firmy Data Domain w 2009 r. Technika ta jest nieustannie rozwijana i obecnie jest dostępna w większości systemów pamięci masowych Dell EMC.
Artykuł Ochrona danych priorytetem Dell EMC pochodzi z serwisu CRN.
]]>Artykuł Tech Data z pełnym portfolio Dell Technologies pochodzi z serwisu CRN.
]]>„Współpraca z Dell Technologies stanowi dla nas strategiczny kierunek rozwoju, a jej dotychczasowy obszar został wzbogacony o rozwiązania klasy enterprise dedykowane do centrów przetwarzania danych, rozwiązania w zakresie bezpieczeństwa, analityki, przetwarzania danych w chmurze oraz zarządzania przedsiębiorstwem. Dostęp do całego portfolio Dell Technologies pozwoli nam na zwiększenie grona klientów, wzmocnienie oferty w zakresie Advanced Solutions. Otworzy możliwość dostarczenia rozwiązań end to end do klientów chcących oprzeć swoją infrastrukturę o produkty Dell Technologies” – komentuje Mariusz Ziółkowski, Country General Manager Tech Data Polska.
Artykuł Tech Data z pełnym portfolio Dell Technologies pochodzi z serwisu CRN.
]]>Artykuł Dell Technologies Forum: o transformacji na serio pochodzi z serwisu CRN.
]]>Konferencja zostanie podzielone na kilka ścieżek tematycznych. Uczestnicy będą mogli zapoznać się z zagadnieniami związanymi z transformacją w centrach danych, rozwojem aplikacji oraz multi-cloudem. Dodatkowo utworzone zostaną strefy dla klientów sektora publicznego oraz specjalna strefa, w której producent razem z partnerami oraz klientami przedstawią przeprowadzone projekty cyfrowej transformacji lub takie, gdzie ten proces się odbywa.
– Dell Technologies Forum jest największym lokalnym wydarzeniem, podczas którego pokazujemy nasz najnowszy dorobek, osadzony w rodzimych realiach. To bardzo dobry czas dla partnerów oraz dystrybutorów, którzy działają na dynamicznie zmieniającym się rynku i muszą do niego dostosowywać swoją ofertę podkreśla Dariusz Okrasa i dodaje, że dystrybutorzy już dostarczają nowe rozwiązania, której wcześniej nie były ich domeną. Należą do nich narzędzia analityczne, kompleksowe platformy do obsługi IoT czy projekty z obszaru wirtualnej rzeczywistości.
Producent zaprasza na tegoroczne forum m.in. resellerów, którzy szukają pomysłu na swój biznes na najbliższe 3-5 lat. Dell Technologies Forum ma być dla nich miejscem wielu ciekawych inspiracji.
– Zależy nam na tym, aby resellerzy przestali nas postrzegać jako czołowego dostawę macierzy, serwerów oraz rozwiązań sieciowych. Chcemy, aby widzieli w nas technologicznego partnera, z którym mogą tworzyć platformy przeznaczone dla nowoczesnego biznesu – podsumowuje szef kanału partnerskiego Dell Technologies.
Dell Technologies Forum Real Transformation 2019 odbędzie się 10.10 w Global Expo Modlińska 6D, 03-216 Warszawa.
Więcej informacji o Dell Technologies Forum
Artykuł Dell Technologies Forum: o transformacji na serio pochodzi z serwisu CRN.
]]>Artykuł S4E: nowy Team Leader Dell pochodzi z serwisu CRN.
]]>Marcin Bartkowski pracował w polskich oddziałach takich firm jak S&T Services, gdzie od 2014 r. odpowiadał za kluczowych klientów, NextiraOne (obecnie Dimension Data), gdzie przez 12 lat był Sales Managerem oraz Alcatel. Od 2017 r. prowadził własną firmę IT.
Jednocześnie do zespołu S4E dołącza Dominik Themerson, który od 2017 r. w Dell EMC pełnił regionalną rolę Business Development Managera odpowiedzialnego za architekturę HCI w krajach CEE. Dotychczas współpracował z S4E, wzmacniając kompetencje partnerów w zakresie hiperkonwergencji. Obecnie wspólnie z Marcinem Bartkowskim będzie odpowiadał za kompletne portfolio Dell Technologies w S4E.
Dominik Themerson zdobywał doświadczenie m.in. jako specjalista od sprzedaży rozwiązań do komunikacji w Vixio (2015 – 2017), dyrektor sprzedaży Indata Utilities (spółka z grupy Indata SA), odpowiedzialny za smart city i IoT (2016). Zajmował się również rozwiązaniami do współpracy w Cisco (2010 – 2014) oraz telepresence i wideo w Tandbergu (2006 – 2010).
„Skupiamy się na kompleksowej infrastrukturze Dell EMC, rozwiązaniach HCI i wsparciu wdrożeniowym. Niezmiennie kanał partnerski jest dla nas kluczowy. Dlatego w pierwszej kolejności będę docierał do naszych partnerów, aby upewnić się, że nadal utrzymujemy relacje, które zostały zbudowane w ciągu ostatnich lat" – deklaruje Marcin Bartkowski Dell Team Leader S4E.
Od 1 lipca br. w związku z przejęciem przedsiębiorstwa ABC Daty przez Roseville Investments (Also Holding), S4E przeszło pod kontrolę międzynarodowego dystrybutora. Spółka zapewnia, że wsparcie biznesowe tak dużego gracza otwiera nowe możliwości biznesowe dotychczasowym partnerom VAD-a.
W II kw. 2019 r. S4E znacznie zwiększyło rentowność. Zysk brutto na sprzedaży poprawił się z 3,7 mln zł do 4,5 mln zł, przy spadku przychodów o ponad połowę wobec analogicznego okresu ub.r. (33,3 mln zł).
Artykuł S4E: nowy Team Leader Dell pochodzi z serwisu CRN.
]]>Artykuł W oczekiwaniu na 7 nm pochodzi z serwisu CRN.
]]>Trzeba jednak zaznaczyć, że wzrosty cen wynikają przede wszystkim z tego, iż klienci przestają wybierać produkty najtańsze. W przypadku sprzętu stacjonarnego coraz większym powodzeniem cieszą się konstrukcje zamknięte w małych obudowach. Rośnie również popyt na notebooki z grupy ultrabooków. W sprzedaży ciągle są duże i ciężkie modele za 1,5 tys. zł oraz niewiele tańsze desktopy w tradycyjnych obudowach formatu ATX, ale tego rodzaju urządzenia przestają być standardem. Sposobem na rozwój sprzętu stało się zmniejszanie jego wymiarów.
Podtrzymywanie wspomnianej tendencji implikuje dwa bardzo ważne zjawiska – spadek poboru mocy, a w konsekwencji zmniejszanie wydzielania ciepła. Ma to oczywiście znaczenie przede wszystkim w przypadku sprzętu przenośnego. Jednak od czasu, gdy Intel, jako lider na rynku procesorów, zaczął produkować układy najpierw w wersjach mobilnych, a na ich bazie – stacjonarnych, to, co w notebookach, instalowane jest też w desktopach. Przypomnijmy, że pomysł taki został zrealizowany równo 13 lat temu, wraz z rozpoczęciem wytwarzania układów iCore w maju 2006 r. Zgodnie z deklaracjami dostawca wprowadzał nowy proces technologiczny (Tick), a następnie nową architekturę (Tock). Odstępy między premierami zwykle wynosiły od roku do dwóch lat.
Jak wynikało z deklaracji producenta, w historii rozwoju iCore bardzo ważne miejsce zajmował układ Haswell. Ten procesor czwartej generacji wyprodukowany w procesie 22-nanometrowym dawał znaczący wzrost wydajności i jednocześnie zmniejszenie poboru mocy, a więc także redukcję emisji ciepła. Jednak z konstrukcyjnego punktu widzenia dla notebooków kluczowe były następne generacje. 14-nm układy Broadwell i następne Skylake pobierały tak mało prądu, że do odprowadzenia ciepła wystarczyły radiatory bez wentylatorów. Nie ma cienia wątpliwości, że był to bardzo ważny etap w rozwoju konstrukcji przenośnych, bo brak konieczności instalowania wiatraka oznaczał dalsze zredukowanie poboru mocy całego komputera i umożliwiał zmniejszenie grubości jednostki.
Trzeba zauważyć, że 14-nm technologia produkcji z 2014 r., użyta w przypadku jednostek 5. i 6. generacji, jest stosowana do dziś, a zmianom ulega jedynie architektura. Procesory 9. generacji, których premiera odbyła się na początku 2019 r., wyposażone są w więcej pamięci cache i charakteryzują się większą częstotliwością taktowania. W niektórych modelach zrezygnowano z układu graficznego, ale litografia pozostała ta sama.
Każdy chyba wie o tym, że żabę można ugotować, jeśli po włożeniu jej do zimnej wody zaczniemy ją powoli podgrzewać. Proces ten można zobrazować mniej drastycznym przykładem – dzieci, które widzimy od święta, rosną, w przeciwieństwie do naszych, którym po prostu ciągle kupujemy coraz większe ubrania. Jednak u progu pełnoletności ubrania są zmieniane nie z konieczności, ale z wyboru. Analogicznie dzieje się w przypadku komputerów. W przeszłości zmieniały się one pod względem konfiguracji bardzo szybko. Pamięć operacyjna rosła od mega- do gigabajtów, średnia pojemność dysków zwiększała się o połowę w skali roku, stację dyskietek zastąpił napęd CD, następnie DVD, wydajność rosła w szybkim tempie za sprawą kolejnych generacji procesorów i kart graficznych. Do tego stale zwiększające się wymagania ze strony oprogramowania zapewniały popyt na sprzęt. Dekadę czy dwie temu komputer, który miał więcej niż trzy lata, był przestarzały.
Natomiast w obecnej dekadzie sytuacja uległa radykalnej zmianie, z każdym rokiem powoli wydłużał się bowiem czas życia komputera. Jeszcze kilkanaście lat temu pięcioletni komputer można było uznać za przestarzały. Dziś maszyna, która została wyprodukowana pięć lat temu, ma intelowski procesor 4. generacji, który różni się od najnowszych przede wszystkim tym, że pobiera dużo więcej energii. Do zastosowań biurowych oraz korzystania z większości „cywilnego” oprogramowania komputer z takim procesorem w zupełności wystarczy. Tym bardziej że pozostałe jego komponenty często nie różnią się od obecnie stosowanych. W przypadku dysku pod względem pojemności notujemy nawet krok wstecz – pięć lat temu standardem były napędy o pojemności 500 GB czy nawet 1 TB, teraz normą staje się dysk SSD o pojemności 250 GB, podczas gdy rok temu było to 120 GB.
Paradoksalnie, to właśnie dyski SSD w dużej mierze przyczyniły się do wydłużenia żywotności komputerów, tak stacjonarnych, jak przenośnych (z informacji uzyskanych od producentów wynika, że bardziej tych drugich). Okazało się bowiem, że dzięki zastosowaniu w notebooku dysku SSD w miejsce HDD wzrasta wydajność całego systemu, a jednocześnie – dzięki spadkowi poboru mocy – wydłuża się czas działania na baterii. W efekcie komputer z dyskiem półprzewodnikowym dostał nowe życie. Warto przy tym zwrócić uwagę, że choć od niemal dwóch lat taniejące SSD robią karierę w zawrotnym tempie, to minie jeszcze trochę czasu, zanim staną się całkiem typowym elementem konfiguracji peceta.
Jednak zasadniczą przyczyną, dla której ewolucja sprzętu pod względem wzrostu wydajności zwolniła, czy wręcz się zatrzymała, jest to, że hardware dogonił software. Tak jak w przypadku dziecka, które osiągnęło swój docelowy wzrost – nie ma potrzeby wymiany ubrań co sezon.
– Napęd SSD w komputerach przenośnych za kilka lat będzie już standardem i praktycznie wyprze z rynku dyski HDD. Przewiduje się, że do 2022 r. blisko 90 proc. produkowanych notebooków konsumenckich i aż 96 proc. biznesowych będzie wyposażane w SSD – komentuje Michał Bocheński, Business Development Manager w Kingston Technology.
Wiele wskazuje na to, że w przyszłości to nie oferta sprzętu komputerowego będzie decydującym czynnikiem, jeśli chodzi o wielkość sprzedaży lub udziały rynkowe producentów. Przez długie lata tak właśnie było – wygrywał ten, kto miał sprzęt w najlepszej cenie, następnym kryterium wyboru była wydajność urządzenia, w dalszej kolejności liczył się wygląd. Na obecnym etapie rozwoju praktycznie wszyscy dostawcy oferują sprzęt porównywalny pod względem ceny, wydajności a także wzornictwa. Co zatem będzie decydowało o wyborze takiej, a nie innej marki?
– Przy braku możliwości uzyskania przewagi technologicznej czy biznesowej kluczowym argumentem stają się szeroko pojęte zasoby ludzkie. Kontakt z działem sprzedaży czy serwisu, szybkość i przyjazność infolinii, nie tylko kompetencja, ale też uprzejmość obsługi. To są niewymierne wartości, które będą decydować o wyborze produktu – mówi Tomasz Włastowski, niezależny ekspert.
Zwraca przy tym uwagę, że w przypadku segmentu B2B bardzo ważnym elementem w relacjach między dostawcą a resellerem jest przyjazność i funkcjonalność narzędzia powszechnie zwanego programem partnerskim. Chodzi o to, aby był on przejrzysty, prosty, a przede wszystkim dopasowany do lokalnego rynku. Obecnie wygląda to następująco – im większy producent, tym ogólniejszy i mniej elastyczny program, który obowiązuje w takim samym kształcie w wielu regionach i siłą rzeczy nie uwzględnia specyfiki konkretnego rynku. Dopasowanie tego narzędzia do lokalnego rynku stanowi duże wyzwanie dla producentów, ale też efekty powinny być warte inwestycji.
Oczywiście to nic nowego, bo przyjazna i kompetentna obsługa była zawsze w cenie, ale kiedyś obowiązywały inne priorytety. Bardzo dawno temu, za czasów wzrostu organicznego, warunkiem sukcesu w biznesie było posiadanie dobrego sprzętu. Później wygrywał ten, kto dawał lepszą cenę. Z czasem zaczęły się liczyć takie walory jak pomysł na sprzedaż, w konsekwencji czego działy marketingowe zaczęły być większe od działu serwisu.
Nie ma w tym nic złego ani dziwnego, bo takie praktyki są znane od bardzo dawna – na przykład swego czasu amerykański producent aut, Ford, zatrudnił cały sztab psychologów, który zastanawiał się, jak nazwać samochód, żeby był synonimem piękna, dzikości, siły, wolności i… Ameryki. Była to wielka i niespotykana wcześniej inwestycja, i – jak się okazało – opłacalna, bo do dziś wszyscy wiedzą, co to jest mustang. Teraz, gdy każdy ma już produkt najlepszy, najładniejszy i w porównywalnej cenie, wracamy do źródeł – producenci skupiają się na pierwiastku ludzkim.
– Obecnie czas pracownika jest droższy niż kiedyś, dlatego ważne jest, by nie absorbowały go sprawy związane z obsługą techniczną komputera. Dlatego coraz większy nacisk kładzie się na zdalne zarządzanie sprzętem, zasobami, aspektami bezpieczeństwa czy wgrywaniem uaktualnień do oprogramowania systemowego bądź użytkowego – podkreśla Sebastian Antkiewicz, Client Solutions Group Manager w polskim przedstawicielstwie Dell EMC.
Od strony sprzętowej sprawa dalszej ewolucji wydaje się dość oczywista – bodźcem do rozwoju będzie zmiana procesu technologicznego produkcji wafli krzemu, z których będą powstawały procesory, zarówno CPU, jak i GPU, ale również pamięci.
– Dzięki zastosowaniu układów wyprodukowanych w litografii 7 nm możliwe będzie wprowadzenie kolejnych ulepszeń konstrukcyjnych związanych z wymiarami czy wagą notebooka oraz wydłużenie pracy na bateriach – twierdzi Tomasz Włastowski.
Wiele wskazuje na to, że 7 nm to już najmniejsza z możliwych litografii, co oznacza, że będzie stanowić ostatni etap rozwoju pecetów w aktualnej formule. Wprawdzie nie jest to dobra wiadomość dla dostawców, ale z drugiej strony trudno przewidzieć, kiedy takie konstrukcje znajdą się masowo na rynku. Jak wspomniano, Intel wciąż oferuje procesory wykonane w technologii 14 nm i nie wiadomo, kiedy należy się spodziewać nowości. Niedawno producent ogłosił, że pierwsze jednostki 10-nm dla notebooków będą dostępne jeszcze w 2019 r., na początku przyszłego dla desktopów, a pierwsze konstrukcje wykonane w technologii 7 nm ukażą się w 2021 r.
Nie wiadomo, czy podane terminy wynikają z wcześniejszych ustaleń, czy może Intel przyśpiesza premiery w związku z tym, że AMD już w bieżącym roku ma wprowadzić na rynek pierwsze konstrukcje CPU wykonane w litografii 7 nm. Natomiast w przypadku kart graficznych od stycznia w sprzedaży znajdują się produkty Radeon VII. Warto zwrócić uwagę, że rzymska cyfra ma tu dwojakie znaczenie: jest związana z litografią, a ponadto można ten element nazwy interpretować jako drugą edycję serii Vega.
Niewątpliwie wzrost aktywności AMD przyczyni się do przyśpieszenia wprowadzania na rynek nowych rozwiązań. Być może będzie też oznaczać zmniejszenie cen produktów, takich jak procesory, karty graficzne, a nawet pamięci. Warto też wspomnieć o konstrukcji, która łączy w sobie pamięć ulotną i stałą – w ofercie Intela mamy jej przykład pod nazwą Optane. Moduł umieszczany w banku pamięci RAM pełni funkcję zarówno pamięci operacyjnej, jak i dysku twardego. Rozwiązanie takie może w znacznym stopniu wpłynąć na konstrukcje, przede wszystkim sprzętu przenośnego. Laptop wyposażony w Optane nie potrzebuje miejsca na dysk, może też zawierać zasilacz o mniejszej mocy. Takie notebooki znajdują się już m.in. w ofercie Della. Obecnie jest to bardzo drogi sprzęt – sam moduł Optane kosztuje tyle, co porządny notebook. Niestety, Intel nie chciał udzielić informacji, czy wspomniane rozwiązanie z racji wysokiej ceny pozostanie niszą, czy jest szansa na upowszechnienie go za sprawą zmniejszenia ceny.
Z pewnością jednak dzięki temu, że komputery mają przed sobą perspektywę co najmniej dwóch generacji procesorów, a także dzięki koncepcji odchodzenia od modułowej struktury komputera, w której pamięć operacyjna i stała są zewnętrznymi komponentami – jeszcze wiele może się wydarzyć. W każdym przypadku element ludzki związany z obsługą użytkowników będzie coraz ważniejszy, a to dobra wiadomość dla resellerów.
Artykuł W oczekiwaniu na 7 nm pochodzi z serwisu CRN.
]]>Artykuł NAS na drodze ewolucji pochodzi z serwisu CRN.
]]>Panaceum mają być urządzenia połączone w klastry i zarządzane przez wspólny system operacyjny. Ich wydajność oraz pojemność można skalować w dowolnym momencie zgodnie z wymaganiami użytkowników. Zdaniem analityków ma to być najszybciej rosnący segment systemów NAS, zwłaszcza że producenci będą się starali obrócić ekspansję dostawców usług chmurowych… na swoją korzyść. Wprawdzie na razie niewiele firm decyduje się na przeniesienie wszystkich zasobów cyfrowych do chmury publicznej, ale szybko rośnie popularność systemów hybrydowych. Dlatego jednym z najważniejszych trendów na rynku NAS jest przystosowywanie urządzeń do płynnej współpracy z chmurami Amazona i Google’a lub platformą Windows Azure. W tym celu zaprojektowano systemy umożliwiające obsługę plików w różnych środowiskach – lokalnym, hybrydowym oraz chmurze publicznej. Na tym nie kończą się innowacje, spośród których należy wymienić: zastosowanie pamięci flash, nowe mechanizmy zabezpieczenia danych bądź możliwość obsługi HFDS (Hadoop Distributed File System).
Agencje badawcze, choć dostrzegają trudności, z jakimi borykają się dostawcy serwerów NAS, patrzą na ten sektor rynku z optymizmem. Według MarketsandMarkets w 2023 r. jego wartość wyniesie 45,2 mld dol., a zatem aż o 30 mld dol. więcej niż w 2017 r. Najliczniejszą grupę klientów mają stanowić banki, instytucje finansowe oraz firmy ubezpieczeniowe. Wśród zgłaszających największy popyt na urządzenia znajdzie się też branża ITC, jak również placówki ochrony zdrowia, sklepy oraz segment mediów i rozrywki.
– Systemy NAS stanowią istotny element IT w przedsiębiorstwach, ze względu na rosnącą ilość danych nieustrukturyzowanych. Statystyki wskazują, że dane płaskie średnio zajmują 80 proc. całej powierzchni dyskowej w firmach. To rezultat rosnącego udziału multimediów w procesach biznesowych oraz coraz większej liczby logów i dokumentów generowanych w ramach obsługi procesów sprzedaży przez platformy internetowe – mówi Radosław Piedziuk, Unstructured Data Solutions Sales Manager w Dell EMC.
Jeśli chodzi o produkty NAS dla małych i średnich firm, na polskim rynku karty rozdają dwaj producenci z Dalekiego Wschodu – QNAP oraz Synology. Obaj swoje pozycje zawdzięczają m.in. konkurencyjnym cenom urządzeń. Inaczej przedstawia się sytuacja w segmencie produktów przeznaczonych dla dużych przedsiębiorstw, gdzie do gry włączają się globalne koncerny: Dell EMC, HPE, IBM, NetApp czy Hitachi Vantara.
– Popyt na rozwiązania NAS dla małych przedsiębiorstw rośnie ze względu na korzystny stosunek ceny do pojemności. Natomiast w przypadku systemów klasy enterprise sprzedaż utrzymuje się na stałym poziomie. Teoretycznie w tej grupie urządzeń kluczowymi kryteriami wyboru powinny być niezawodność, funkcjonalność i wydajność. Niestety, wciąż zdarza się, że klienci patrzą przede wszystkim na cenę, nie przywiązując większej wagi do parametrów technicznych – mówi Tomasz Spyra, CEO Rafcomu.
Ale nie brakuje także wyedukowanych nabywców o sprecyzowanych wymaganiach, którzy oczekują od systemów z wyższej półki redundantnych kontrolerów, obsługi różnych protokołów komunikacyjnych albo integracji z popularnymi aplikacjami do tworzenia kopii zapasowych oraz systemami wirtualizacji. Natomiast niemal wszyscy klienci biznesowi, niezależnie od pojemności i funkcjonalności kupowanego urządzenia, zwracają uwagę na warunki gwarancji oraz szybkość reakcji serwisowej. Jedną z najchętniej wybieranych przez firmy opcji jest Next Business Day, która zapewnia wsparcie zespołu pomocy technicznej, priorytetowe rozpatrzenie zgłoszenia, a także wysyłkę sprawnego urządzenia w następnym dniu roboczym.
W przeszłości przedsiębiorcy kupowali pamięci masowe na zapas, zamawiając nośniki, które miały wystarczyć na kilka lat. Mimo upływu czasu i tak zwykle ok. 30–40 proc. powierzchni dyskowej pozostawało bezczynne. Obecnie kupowanie terabajtów pamięci na wszelki wypadek stanowi zanikające zjawisko. Dokonywanie racjonalnych zakupów ułatwiają chociażby urządzenia NAS scale out. Ich zastosowanie umożliwia rozbudowę systemu przez dodawanie kolejnych jednostek, a całe obciążenie jest rozłożone pomiędzy węzły tworzące klaster. Niezaprzeczalnym walorem tego modelu jest skalowalność, umożliwiająca budowę repozytoriów danych o pojemności rzędu kilku petabajtów. Niemniej na razie klienci preferują tradycyjne NAS-y scale up. Według danych analityków z Global Market Insight ich udział w globalnym rynku NAS przekracza nieco 70 proc. Model scale up zapewnia dodawanie nowych nośników bądź rozbudowę pamięci RAM, aczkolwiek możliwości rozbudowy są w tym wypadku mocno ograniczone.
– Klienci wykorzystujący urządzenie do typowych zastosowań, takich jak backup, nie decydują się na rozwiązanie scale out. Natomiast w przypadku bardziej zaawansowanych projektów, wymagających wysokiej dostępności i bezpieczeństwa danych, wdrożenie takiego systemu znajduje racjonalne uzasadnienie – mówi Łukasz Milic, Business Development Representative w QNAP-ie.
W podobnym tonie wypowiada się Maciej Kalisiak, Hybrid IT Presales Leader/Storage Solutions Architect z Hewlett Packard Enterprise.
– Cyfryzacja sprawia, że NAS-y scale out zyskują popularność. Jednak małe i średnie przedsiębiorstwa nie potrzebują takich urządzeń, dlatego też podział nadal będzie istniał, choć środek ciężkości przesunie się w stronę rozwiązań scale out – przyznaje Maciej Kalisiak.
Warto dodać, że według prognozy firmy badawczej Global Market Insight popyt na NAS-ów scale out będzie systematycznie rosnąć. Specjaliści przewidują, że światowa sprzedaż tych urządzeń w latach 2018–2024 będzie się zwiększać w tempie 35 proc. rocznie.
Zdaniem integratora
Piotr Samek, inżynier systemowy, ITwdrożenia.pl
Nasi klienci, do których należą małe i średnie przedsiębiorstwa, nie wykazują zbyt dużego zainteresowania systemami NAS. Większość wybiera klasyczne rozwiązania bazujące na wirtualizacji – serwery, macierze SAN, biblioteki taśmowe lub deduplikatory. Nie można też zapominać o mocno promowanych w ostatnim czasie systemach konwergentnych, będących ciekawą alternatywą dla tradycyjnych rozwiązań. Szacuje się, że na całym świecie w ciągu sekundy przyrasta 50 tys. GB danych. Dlatego uważam, że nie można myśleć o prostym magazynowaniu zasobów, za to warto rozważyć wdrożenie systemu scale out, umożliwiającego składowanie danych o bardzo dużych pojemnościach.
Pamięci flash zaczynają wygrywać rywalizację z dyskami twardymi. Wciąż jednak istnieją obszary, w których „twardziele” trzymają się bardzo mocno. Jednym z największych bastionów HDD pozostają NAS-y. To zupełnie zrozumiałe – dużo łatwiej uzasadnić inwestycję w system all-flash obsługujący aplikacje biznesowe o znaczeniu krytycznym niż wydatek rzędu setek tysięcy złotych na nośniki SSD w urządzeniu służącym do przechowywania plików. Ale coś, co jeszcze do niedawna uznawane było za ekstrawagancję, powoli staje się zwyczajną praktyką. Pamięci flash od pewnego czasu zaczynają pojawiać się w serwerach NAS. Wprawdzie najczęściej używane są do buforowania, ale klienci biznesowi zaczynają je stosować również jako podstawowe nośniki.
– Dyski flash do akceleracji znajdują zastosowanie głównie w systemach NAS klasy enterprise. Jest to opcja obowiązkowa w tego typu rozwiązaniach – architektura wewnętrzna tych systemów potrafi wykorzystać potencjał dysków SSD. Natomiast dyski flash w NAS-ach dla rynku MŚP lub też służących do archiwizacji danych nie do końca znajdują uzasadnienie – tłumaczy Tomasz Spyra.
Specjaliści wyliczają, że dwa lata temu udział pamięci flash w powierzchni dyskowej sprzedawanych NAS-ów był niemal zerowy, obecnie zaś wynosi ok. 5 proc. Natomiast gdy uwzględni się kryterium wartościowe, generują one od 10 do 15 proc. przychodów. Wybór odpowiednich nośników do macierzy wymaga odpowiedniej analizy. Ile zatem powinno być dysków SSD w NAS-ie działającym na potrzeby dużej korporacji? Eksperci twierdzą, że w przypadku standardowych zastosowań w zupełności wystarczy ok. 5 proc. całkowitej powierzchni dyskowej. Nieco większe zapotrzebowanie (o 5–10 proc.) występuje w przypadku środowisk zwirtualizowanych generujących dużo operacji. Wraz z upływem czasu udział pamięci flash powinien sukcesywnie rosnąć, do czego przyczynią się ich spadające ceny oraz konieczność zachowania wysokiej jakości usług świadczonych klientom przez firmy. Przykładem może być wideo na żądanie, gdy kilka tysięcy użytkowników chce w tym samym czasie odbierać strumieniowo ten sam materiał filmowy.
Maciej Kaczmarek, VAR Account Manager, Netgear
Firmy zaopatrujące się w serwery NAS zwracają przede wszystkim uwagę na poziom zabezpieczeń oferowanych przez urządzenia. Dotyczy to ochrony przed awarią sprzętową, błędami ludzkimi czy też złośliwym oprogramowaniem. Dlatego ważne są takie funkcje jak: tworzenie migawek, szyfrowanie czy antywirusy. Klienci przywiązują też coraz większą wagę do czasu obowiązywania gwarancji, co bezpośrednio przekłada się na użyteczność urządzenia, gdyż w przypadku awarii w okresie pogwarancyjnym NAS może stać się pułapką dla danych.
Łukasz Milic, Business Development Representative, QNAP
NAS dla wielu klientów to głównie dysk sieciowy na pliki i backupy. Jednak część użytkowników zaczyna przekonywać się, że dobry NAS to bardziej zaawansowany serwer sieciowy niż współdzielony dysk. Wśród funkcji, które użytkownicy doceniają szczególnie, należałoby wymienić tworzenie migawek, wyższe poziomy RAID czy replikację danych. Na popularności zyskują opcje uruchamiania maszyn wirtualnych oraz kontenerów, które zwiększają funkcjonalność. Więksi klienci do pracy z produkcyjnymi danymi wciąż wykorzystują macierze z wyższej półki, przykładowo jako przestrzeń na pliki maszyn wirtualnych, natomiast często NAS służy do przechowywania kopii bezpieczeństwa. Mniejsze firmy traktują NAS-y jako bardziej ekonomiczną alternatywę dla macierzy.
Przemysław Biel, Key Account Manager Poland, Synology
Popyt na urządzenia NAS ciągle rośnie i taka tendencja powinna się utrzymać w nadchodzących latach. Lokalny dostęp do szybkiego serwera plików jest nie do zastąpienia przez chmurę publiczną. Zwiększają się także możliwości systemów NAS, które obecnie są bardzo uniwersalnymi rozwiązaniami typu All-in-One, zapewniającymi oprócz pamięci masowej i kopii bezpieczeństwa także serwer aplikacyjny i wirtualizację. Bardzo dużym zainteresowaniem cieszą się też systemy monitoringu, w których NAS-y mają ogromną przewagę nad specjalistycznymi rozwiązaniami.
Amazon, Microsoft i Google zachęcają przedsiębiorców, żeby przenieśli swoje dane do chmury publicznej. Ma być taniej, łatwiej i bezpieczniej – obiecują usługodawcy. Jednak firmy bardzo rzadko decydują się na całkowitą migrację do środowiska chmurowego.
– Idea chmury powstała ze względu na chęć ograniczenia kosztów i uproszczenia zarządzania infrastrukturą IT. Niemniej obecnie najbardziej rozpowszechnione są systemy hybrydowe. Zasoby aktywne znajdują się na urządzeniach NAS, a dane nieużywane są archiwizowane w chmurze publicznej – tłumaczy Radosław Piedziuk, z Dell EMC.
Zazwyczaj NAS-y klasy enterprise zawierają rozwiązanie „cloud tiering”, które zapewnia automatyczne przenoszenie danych z urządzania do chmury publicznej zgodnie ze zdefiniowanymi regułami – mogą to być chociażby zasoby nieużywane przez określony przedział czasu. Natomiast wszystkie modele, również przeznaczone dla odbiorców domowych, są przystosowane do współpracy z AWS czy Microsoft Azure. Choć producenci systemów NAS starają się maksymalnie uprościć wymianę danych pomiędzy środowiskiem lokalnym a chmurowym, na rynku pojawiają się startupy, które twierdzą, że mają lepsze pomysły na konsolidację. Produkty Panzura, Elastifile, Weka IO, Igneous Systems czy Qumulo zyskują zwolenników za oceanem, a niektóre z nich zdążyły nawet dotrzeć na Stary Kontynent.
Na czym właściwie polegają wprowadzane przez nich innowacje? Ciekawy przykład stanowi Qumulo, które opracowało skalowalny system pamięci masowej przystosowany do pracy zarówno w lokalnym centrum danych, jak i chmurze publicznej. Architektura tego rozwiązania stwarza nieograniczone możliwości w zakresie magazynowania dowolnych plików. Sztuka dla sztuki? Niekoniecznie. Jednym z klientów startupu jest wytwórnia Dreamworks, której najbardziej popularne filmy zawierają pół miliarda plików. Szefowie Qumulo przyznają, że oprócz przechowywania danych nie mniej ważne jest szybkie dotarcie do potrzebnych informacji. W tym celu wdrożyli mechanizmy zapewniające szybkie wyszukiwanie plików.
Równie interesująca okazuje się koncepcja firmy Igneous Systems. Startup oferuje usługę tworzenia kopii zapasowych z wielu NAS-ów. Usługodawca konsoliduje backup w pojedynczym urządzeniu. Dane przechowywane są w środowisku klienta, natomiast nadzór nad nimi oraz zarządzanie odbywa się za pośrednictwem chmury publicznej. Igneous kieruje usługę do klientów korporacyjnych i sprzedaje ją wyłącznie za pośrednictwem resellerów i integratorów IT. Ciekawostką jest, że założyciele Qumulo oraz Igneous System odgrywali kluczowe role w firmie Isilon, która obecnie należy do Dell EMC.
Wraz z lawiną przyrastających danych zaczęły pojawiać się nowe pomysły na ich przechowywanie. O ile w przypadku małych firm i gospodarstw domowych najlepszym rozwiązaniem wydaje się NAS lub usługa chmurowa, o tyle przedsiębiorstwa mają zdecydowanie większy wybór. W ostatnich czasach na fali wznoszącej znajduje się pamięć obiektowa. Technologia – poza tym, że umożliwia dowolne skalowanie systemu – jest stosunkowo tania, wykorzystuje bowiem serwery x86. Dodatkową korzyścią ze stosowania pamięci obiektowej jest możliwość jej rozproszenia geograficznego i zbudowania systemu obejmującego więcej niż dwie lokalizacje. Niektórzy uważają, że to rozwiązanie zastąpi w przyszłości modele przechowywania danych bazujące na blokach i plikach. Jednym z największych orędowników tego standardu jest Amazon. Jednak należy mieć na uwadze, że wybór pomiędzy pamięcią obiektową a plikami zależy od typu danych i sposobu dostępu do nich.
– Pamięci obiektowe są przewidziane dla aplikacji komunikujących się za pośrednictwem standardów S3 lub REST-API. W tej technologii składuje się dane o niskiej zmienności, przykładowo w celu długoterminowej archiwizacji. NAS w systemie scale out jest rozwiązaniem przeznaczonym do przechowywania cyfrowych zasobów o dość dużej zmienności. Mogą to być też dane archiwalne, do których dostęp jest zapewniany za pomocą protokołów plikowych NFS, SMB oraz FTP – wyjaśnia Radosław Piedziuk.
Dostawcy NAS z uwagą powinni przyglądać się sytuacji na rynku rozwiązań hiperkonwergentnych, łączących w pojedynczym systemie zasoby obliczeniowe, pamięć masową i sieć. Zaletą tej grupy produktów jest łatwość rozbudowy, umożliwiająca stosunkowo szybkie dodawanie niewielkich zasobów powierzchni dyskowej i mocy obliczeniowej.
– Z systemem hiperkonwergentnym jest trochę jak z iPhone’em. Pobierając najnowszą wersję systemu operacyjnego, otrzymujesz nowe funkcje – przyznaje Adrian Davies, Manager IT w firmie Stockport Council.
Jednak iPhone’y przegrywają rywalizację ze smartfonami z Androidem, podobnie jak platformy hiperkonwergentne z macierzami SAN czy serwerami NAS. Podstawową przewagą tych ostatnich jest dojrzałość i wieloletnia obecność na rynku. Zwolennicy systemów NAS zwracają uwagę na wydajność czy elastyczność konfiguracji, jak również, rzecz jasna, niższą cenę. Ten ostatni argument nadal ma na polskim rynku pierwszorzędne znaczenie. Dlatego rodzimi integratorzy sprzedający NAS-y mogą spać spokojnie.
Artykuł NAS na drodze ewolucji pochodzi z serwisu CRN.
]]>Artykuł UOKiK: przeszukania w związku z Dellem pochodzi z serwisu CRN.
]]>Według urzędu akcja rozpoczęła się 8 kwietnia i trwała sześć dni. Wzięło w niej udział 10 pracowników urzędu. W asyście policji zabezpieczyli dane elektroniczne, głównie e-maile wymieniane pomiędzy pracownikami spółek.
"Podejrzewamy, że mogło dojść do podziału rynku. Firmy i instytucje państwowe, które chciały kupić sprzęt, mogły być przypisane poszczególnym sprzedawcom. Tym samym mogły nie mieć możliwości uzyskania tańszej oferty od innych dystrybutorów Della, nawet jeśli sami się do nich zgłosili. Podejrzewamy również, że producent mógł dyscyplinować partnerów, którzy nie stosowali się do uzgodnień" – twierdzi prezes UOKiK, Marek Niechciał.
UOKIK przypuszcza, że podejrzewana praktyka mogła naruszać zarówno polskie, jak i unijne przepisy. Dlatego urząd poinformował o sprawie Komisję Europejską.
UOKiK wyjaśnia, że w postępowaniu chodzi zarówno o kanał dystrybutorski, jak i partnerski.
"W tej chwili jest to wstępny etap naszych działań, postępowanie prowadzone jest w sprawie, a nie przeciwko jakiemukolwiek przedsiębiorcy." – podkreśla Maciej Chmielewski z biura prasowego urzędu.
Procedura jest następująca: jeżeli postępowanie wyjaśniajcie potwierdzi podejrzenia, wówczas UOKiK wszczyna postępowanie monopolowe. Może być prowadzone przeciwko firmom, jak i menedżerom wysokiego szczebla, którzy byli zaangażowani w podejrzewane działania. Postępowanie antymonopolowe może zakończyć się karą – do 10 proc. obrotu dla firmy i do 2 mln zł dla menadżera.
Dell Technologies nie komentuje komunikatu UOKiK, ponieważ sprawa jest w toku.
Artykuł UOKiK: przeszukania w związku z Dellem pochodzi z serwisu CRN.
]]>Artykuł Gartner: Dell EMC liderem na rynku macierzy dla danych plikowych i obiektowych pochodzi z serwisu CRN.
]]>System Dell EMC ECS jest macierzą obiektową, co oznacza, że dane przechowywane są w formie obiektów, a nie plików, jak dzieje się w serwerach NAS. Są to elementy, na które składają się dane, metadane systemowe i własne oraz polityki przechowywania. Metadane ułatwiają indeksowanie i szybkie wyszukiwanie informacji. Macierze obiektowe ECS mogą być rozmieszczone w jednej lub wielu lokalizacjach geograficznych, tworząc skonsolidowany magazyn danych. Ich użytkownik dostaje się do obiektów bez konieczności wskazywania dokładnej ścieżki prowadzającej do fizycznej lokalizacji. Najlepszym przykładem korzystania z dostępu obiektowego do danych jest wyszukiwanie informacji np. analogicznie do wyszukiwania danych w przeglądarce. Producent rekomenduje Dell EMC ECS do następujących zastosowań:
– archiwizacja danych, gdzie wymagana jest obsługa dodatkowych metadanych na poziomie macierzy, czyli dostęp obiektowy przez S3 lub REST-API,
– przechowywanie setek milionów drobnych dokumentów z uwagi na płaską przestrzeń bez zbędnej struktury katalogów,
– tzw. trwały nośnik czyli niezaprzeczalna (obsługa WORM) i długoterminowa archiwizacja danych o małej zmienności również z optymalizacją zajętości dysków w rozproszeniu geograficznym.
Radosław Piedziuk
Unstructured Data Solutions Sales Manager, Dell EMC
Dell EMC wychodzi z założenia, że do efektywnej obsługi dużych zbiorów danych o pojemności setek terabajtów, w przypadku której ważna jest wydajność i dostępność, najlepiej stosować proste rozwiązania. Z tego powodu rekomendujemy dobór platformy storage’owej w zależności od planowanego scenariusza jej wykorzystania (np. zasoby plikowe lub współpraca z aplikacjami korzystającymi z danych obiektowych). W przypadku obsługi setek terabajtów ilość i ciągły przyrost danych stanowią główne wyzwanie, a specjalistyczne rozwiązania zapewniają uniknięcie bolesnych kompromisów, związanych z wydajnością oraz skalowalnością rozwiązań typu 2w1.
Koncepcja tradycyjnej architektury NAS (tzw. Scale Up) została opracowana przy założeniu, że użytkownik korzysta z danych w skali gigabajtów lub pojedynczych terabajtów. Gwałtowny wzrost danych spowodował zainteresowanie systemami o wysokiej skalowalności. Takim rozwiązaniem jest Dell EMC Isilon, a więc macierz NAS typu Scale Out, która zapewnia możliwość liniowej i jednoczesnej rozbudowy przestrzeni dyskowej i kontrolerów. System najczęściej wykorzystuje się do:
– obsługi współużytkowanych zasobów roboczych dla setek/tysięcy użytkowników, np. architektura typu VDI,
– streamingu multimediów,
– współpracy z serwerami HPC i zapewnienia wydajnego współużytkowanego zasobu, potrzebnego np. do zastosowań w sejsmice, sekwencjonowaniu DNA itp.,
– archiwizacji danych, gdzie dodatkowe metadane nie są wymagane lub są obsługiwane na poziomie aplikacji, czyli chodzi np. o digitalizację dokumentów z funkcją niezaprzeczalności (WORM), obsługę archiwum systemów PACS (archiwizacja diagnostyki obrazowej) itp.
Autoryzowanym dystrybutorem Dell EMC jest firma Arrow ECS.
Artykuł Gartner: Dell EMC liderem na rynku macierzy dla danych plikowych i obiektowych pochodzi z serwisu CRN.
]]>Artykuł Tech Data: IoT rozwinie skrzydła pochodzi z serwisu CRN.
]]>– W tym roku uruchomiliśmy projekt pod nazwą Transformation Program, by wyszukać odpowiednich partnerów, bazując na ich dotychczasowej aktywności, i zaproponować im współpracę – informuje Andrzej Bugowski, który objął stanowisko East Region Director IoT & Analytics w Tech Dacie.
Dyrektor podkreśla, że IoT i analityka są ze sobą integralnie związane. Po to gromadzi się dane z czujników, by wyciągać na ich podstawie istotne wnioski dla biznesu. To właśnie powinno być celem wdrożenia.
14 mld zł za 2 lata
Panel „IoT & Analityka” był nowym i jednym z dwóch głównych bloków tematycznych łódzkiej Akademii IT. Podczas szkoleń prezentowano dane, które wskazywały na wielki potencjał i szybki rozwój Internetu rzeczy. Według IDC polski rynek IoT w 2018 r. był wart ponad 2 mld dol., czyli blisko 8 mld zł. W 2021 r. inwestycje mają przekroczyć 3,7 mld dol. (+14,5 proc. każdego roku). Dane obejmują nakłady na sensory, aplikacje, usługi i sprzęt, w tym serwery i macierze. Projekty IoT bazują na sieci, która charakteryzuje się autonomicznym (bez udziału człowieka) dostarczaniem danych, zarządzaniem nimi i monitorowaniem. Podstawę stanowią dane i narzędzia analityczne. Najważniejsze czynniki skłaniające klientów do takich inwestycji to poprawa wydajności i redukcja kosztów.
Najczęściej tego rodzaju rozwiązania są wykorzystywane do monitorowania towarów, a także w inteligentnych sieciach energetycznych (smart grid), w zakładach produkcyjnych oraz w inteligentnych domach. Najszybciej zwiększają się obroty na IoT w segmencie inteligentnych budynków, ale możliwości zastosowań są w wielu innych sektorach.
Typowa droga klienta do rozwiązania IoT zaczyna się od połączonych urządzeń (jak systemy magazynowe), wiedzie przez zdalne zarządzanie i kontrolę (np. nad maszynami) po rozwiązania bazujące na danych i analityce, które umożliwiają m.in. predykcję – wskazywał Ozgur Yarar, odpowiedzialny za IoT w regionie EMEAR w Cisco.
Tomasz Jangas, Solutions Consultant Hitachi Vantara, podkreślał, że w rozwiązaniach IoT na znaczeniu będą zyskiwać mechanizmy przetwarzania danych w jak najszybszym czasie oraz możliwość analizy predykcyjnej.
Kolejnym trendem jest dążenie do uproszczenia zarządzania złożonej infrastruktury IoT dzięki narzędziom, które pozwalają np. zdalnie łączyć się z urządzeniami, wykonywać prace związane z ich utrzymaniem – zaznaczano podczas prezentacji VMware. Istotne jest przetwarzanie danych na skraju sieci, bez konieczności wysyłania informacji do chmury, co pozwala szybko wykryć anomalie – podkreślano podczas prezentacji Microsoftu.
Efektywność systemów IoT wspomaga zastosowanie sztucznej inteligencji.
– Trzeba się skupić na tym, by zastosować sztuczną inteligencję do poprawy efektywności biznesu. Te narzędzia już istnieją, należy więc wymyślić sposób na ich wykorzystanie – twierdzi Wojciech Janusz, System Engineer w Dell Technologies.
Rozwiać obawy
Z zaprezentowanych danych wynika, że dla użytkowników największy problem stanowi bezpieczeństwo. Wśród istotnych wyzwań pojawia się też trudna do przewidzenia skalowalność.
Andrzej Bugowski przekonuje, że dobre planowanie i sprawna kooperacja pozwalają poradzić sobie z kłopotami. Dlatego do wdrożeń trzeba podchodzić z myślą o tym, aby rozwiązywały konkretne problemy klientów.
– Integrator musi wyraźnie powiedzieć klientowi, co ten uzyska, inwestując w takie czy inne rozwiązanie. Kluczowe jest wyliczenie ROI, czyli zwrotu z inwestycji, a do tego niezbędna jest wiedza dotycząca branży, w której działa określony użytkownik – podkreśla Andrzej Bugowski.
Przedstawiciel Tech Daty dodaje przy tym, że warto korzystać z już dostępnych narzędzi i tworzyć nowe rozwiązania na ich bazie. Zarówno dystrybutor, jak i producenci deklarują wsparcie dla integratorów w realizacji takiego zadania.
Najważniejsze trendy w centrach danych
Drugi blok tematyczny tegorocznej Akademii Tech Data – „Data Center & Networking”, poświęcono infrastrukturze centrów danych i sieciom, w tym kluczowym rynkowym trendom: przetwarzaniu w chmurze i rozwiązaniom definiowanym programowo. Partnerzy mogli zapoznać się z całą gamą rozwiązań infrastrukturalnych D-Linka – są to nowe przełączniki przemysłowe i zarządzalne, przeznaczone zarówno dla MŚP, jak i środowisk korporacyjnych.
Cisco przybliżyło inteligentną, prostą i bezpieczną sieć LAN. Jest łatwa w konfiguracji i zautomatyzowana, co pozwala na autonomiczną komunikację jej elementów, uczenie się i reakcję na zagrożenia.
Jak wynika z prezentacji VMware, SD-WAN jest nieunikniony. Trend potwierdzają prognozy analityków. Według IDC w ujęciu globalnym wzrost przychodów z SD-WAN wyniesie 77,2 proc. co roku w latach 2018-2022.
Partnerzy poznali również nowy sposób licencjonowania Veeam – Veeam Instance Licensing. Pozwala on korzystać klientom z pojedynczego typu licencji na wszystkie obciążenia – fizyczne, VMware, Hyper-V i AWS, on-premise i w chmurze publicznej. Kolejna generacja licencji ma ułatwić realizację strategii wielochmurowej. Nie zabrakło tematu chmury publicznej Microsoftu w kontekście kanału partnerskiego, jak również tworzenia środowiska chmurowego (prywatnego i hybrydowego) na bazie rozwiązań IBM Storage.
Akademii towarzyszyły warsztaty Dell EMC, na których można było poznać m.in. rozwiązania do modułowej budowy serwerowni (DCI). Obejmuje szafy rackowe, zasilacze awaryjne, dystrybucję energii i konsole zarządzania KVM i KMM. Tematem warsztatów były również pamięci masowe Compellent. Dostawca przekonywał partnerów o wysokich marżach, jakie można wypracować na rozwiązaniach sieciowych Dell EMC.
Trzy pytania do Andrzeja Bugowskiego, east region directora IoT & Analytics w Tech Data
Dlaczego tak wiele projektów IoT się nie udaje? Według Cisco 60 proc. z nich utknęło na etapie proof of concept.
Wydaje się, że potrzeby klientów nie zostały trafnie określone, stąd błędy w przygotowaniu projektów. A gdy już doszło do ich realizacji, nie pojawił się oczekiwany zwrot z inwestycji.
Jakie jest zatem właściwe podejście?
Projekty wymagają połączenia sił integratorów oraz dystrybutora i producentów, którzy zapewniają wiedzę i wsparcie techniczne, koordynując działanie takiego „konsorcjum”. Obecnie mamy w zespole trzech specjalistów od IoT i analityki. Wspierają nas fachowcy ze strony producentów. Wzajemnie informujemy się o projektach i koordynujemy działania. Podam przykład: w handlu detalicznym realizowano zamówienia, które umożliwiły zbieranie danych o rotacji towaru i ułatwiały optymalne rozmieszczenie asortymentu w sklepie. Na półkach zainstalowano czujniki. Do tego dochodziła łączność sieciowa, zasoby do przetwarzania i gromadzenia informacji, oprogramowanie oraz analityka. W takich projektach partnerzy łączą siły. Przykładowo jeden zna się lepiej na czujnikach, inny na budowie półek itd. Najlepiej jednak, gdy wszyscy mają dużą wiedzę z danej dziedziny, czyli w tym przypadku na temat retailu. W tego typu konsorcjach jeden integrator jest liderem.
Tylko czy tylu podmiotom łatwo się dogadać? Jak podzielić pracę, zyski?
Oczywiście najpierw trzeba wypracować porozumienie dotyczące tego, jaki jest wkład każdego z partnerów i jakie on potem „wyjmie” zyski. Doświadczenie z innych rynków uczy, że wypracowanie dobrego kompromisu jest jak najbardziej możliwe. My, jako dystrybutor, organizujemy takie zespoły i zamawiamy sprzęt u producentów. Warto podkreślić, że wdrożenia Internetu rzeczy i analityki bazują na produktach od różnych dostawców. W projekty mogą być angażowani integratorzy, którzy wcześniej, dajmy na to, sprzedawali serwery i zajmowali się sieciówką, a przy tym znają się na bezpieczeństwie. Ale są też firmy, które na przykład specjalizują się w automatyce przemysłowej. Te drugie szukają obecnie dojścia do kanału sprzedaży IT.
Artykuł Tech Data: IoT rozwinie skrzydła pochodzi z serwisu CRN.
]]>