Artykuł 30-lecie Dell Technologies w Polsce – sekrety sukcesu i plany na przyszłość pochodzi z serwisu CRN.
]]>CRN Dell Technologies zaczynał od sprzedaży bezpośredniej i systematycznie zaczął rozwijać również kanał partnerski. Okrągłe rocznice to dobrym moment do podsumowań. Kiedy dokładnie rozpoczęliście ekspansję tego kanału sprzedaży i jak on aktualnie wygląda?
Dariusz Okrasa Cały proces współpracy Dell Technologies z partnerami zaczął się jakieś 15 lat temu i systematycznie rośnie. Obecnie mamy w Polsce już 4 tysiące autoryzowanych partnerów, w tym blisko 130 o statusie złotym, platynowym i tytanowym. Do tego dochodzi niemałe grono retailerów i dystrybutorów. Co więcej, setki partnerów dołączyło do nas w ostatnich dwóch latach pandemii, co potwierdza, że jesteśmy firmą zorientowaną na partnerów, a współpraca z Dell Technologies jest atrakcyjna dla resellerów i integratorów.
Jaki jest obecnie udział w obrotach kanału partnerskiego w Polsce?
Znacząco powyżej 80% proc. sprzedaży na naszym rynku realizujemy pośrednio. Udział ten utrzymuje się od lat na wysokim poziomie, a ostanie lata podniosły go o kilka punktów procentowych. Z tym, że na przykład w sektorze publicznym ten udział wynosi 100 proc. Zatem kanał sprzedaży pośredniej dominuje i nie tyle konkuruje z biznesem bezpośrednim, co raczej tworzy nową przestrzeń dla partnerów. Co więcej, partnerów nie tylko przybywa, ale obserwujemy też stały rozwój tych, którzy od lat są z nami. Widzimy trend specjalizacji i poszerzania portfolio. Początkowa współpraca wielu resellerów zaczynała się od sprzedaży urządzeń końcowych. Dane pokazują, że z czasem część tych firm, ok. 45-50 proc., zrobiła kolejny krok i zaczęła wchodzić w rozwiązania infrastrukturalne.
Co sprawiło, że w ostatnich latach do Dell Technologies dołączyła znaczna liczba resellerów i integratorów?
Było to z pewnością pochodną jednej z największych dostępności sprzętu na naszym rynku. Przy czym jest kilka czynników, które sprawiają, że radzimy sobie z tym lepiej niż inni. Pierwszy to globalna skala działania. Możemy przez to efektywniej pozyskiwać komponenty w oparciu o wieloletnie partnerstwa w łańcuchu dostaw. Ponadto, dzięki bliskiej współpracy z dystrybutorami utrzymujemy odpowiednie stany magazynowe i udostępniamy partnerom zgromadzony sprzęt w modelu „stock and sell”. Z takimi graczami jak AB SA, ALSO, Ingram Micro i TechData mogliśmy precyzyjnie nawigować dostępnością towaru dostosowaną do zapotrzebowania. Dzięki temu dla tak wielu resellerów najbardziej efektowny i przewidywalny pod względem podaży jest właśnie Dell Technologies.
Dobra podaż w czasie pandemii przekonała nowych partnerów do Dell Technologies. Czy coś jeszcze stało za tym sukcesem?
Istotna kwestia to współpraca. Znacznie poszerzyliśmy m.in. nasze programy edukacyjne. Mamy wyspecjalizowane ścieżki szkoleniowe dla różnych ról w firmach partnerskich, na przykład inżynierów presales czy wdrożeniowców, handlowców, marketingu i PR-u, czy też grup wysoko zaawansowanych architektów.
Co zatem wyróżnia Wasz program szkoleniowy na tle innych producentów?
W kanale sprzedaży przede wszystkim wyspecjalizowane podejście do edukacji. Nowością docenioną przez branżę są nasze szyte na miarę szkolenia obejmujące social selling. W ciągu ostatnich 2,5 roku sporo zainwestowaliśmy w ten obszar. Uważamy, że będzie on odgrywał coraz ważniejszą rolę. Wskazujemy partnerom, jak umiejętnie poruszać się w mediach społecznościowych, aby mogli wykorzystać ich potencjał – tzn. czym mogą się wyróżnić, by zapewnić lepsze dotarcie do klientów. Media społecznościowe to także dobre miejsce pokazywania klientom, w czym może pomóc im Dell Technologies, jeśli chodzi o oferowane technologie.
Równocześnie w kanale sprzedaży pośredniej budujemy inne niż standardowe drogi dotarcia do rynku. Od jakiegoś czasu blisko współpracujemy z dostawcami usług chmurowych i zarządzanych, takimi jak Netia, T-Mobile, IQ.PL, Talex czy Beyond. Czynnie wspieramy ich przy tworzeniu usług bazujących na rozwiązaniach Dell Technologies oraz angażujemy się w promocję nowopowstałych serwisów. Wokół providerów staramy się tworzyć ekosystem mniejszych resellerów, którzy wspólnie z CSP mogą dostarczyć wartość dla klienta w modelu OPEX’owym. To przykład wsparcia partnerów ofertą, która pozwala im wykorzystać nowe możliwości.
Czy widać większe zainteresowanie modelem pay-as-you-go w Polsce?
Klienci są zainteresowani takimi ofertami i już z nich korzystają. Coraz częściej też średnie i małe organizacje chcą rozliczać się w modelu abonamentowym lub za tzw. użycie. Model usługowy interesuje zwłaszcza firmy, które same dostarczają usługi i oczekują od swoich dostawców podobnego podejścia. Operatorzy i dostawcy usług z lokalnych DC są tutaj dobrym przykładem. Badania, które wspiera również Dell Technologies, pokazują, że taki model będzie nadal zyskiwał na znaczeniu na polskim rynku. To, co Dell Technologies proponuje partnerom, to także wiedza ekspercka oraz dostęp do doświadczeń zbieranych zarówno w Polsce, gdzie właśnie świętujemy wyżej wspomniane obchody 30-lecia, jak i na rynkach zagranicznych.
Jakie rolę wasza fabryka w Łodzi odgrywa w kontekście kanału partnerskiego poza kwestią dostępności towarów?
Wracamy do cyklicznych aktywności realizowanych w łódzkiej fabryce. Partnerzy mogą zaprosić swoich klientów do niej oraz do strefy demo i pokazać, jak powstają produkty oraz jak zaawansowane procesy technologiczne temu towarzyszą. Korzystając z dostępnego sprzętu, mogą też wyjaśnić jego funkcjonalności pod kątem specyficznych wymagań danego klienta. Jest to o tyle istotne, ponieważ mogą w praktyce przekonać się o innowacyjności naszych rozwiązań.
Fabryka w Łodzi jest znana z produkcji serwerów i komputerów. Czy warto inwestować w działalność projektową opartą na sprzedaży on-premise, skoro mówi się, że chmura będzie rosła, a firmy będą migrować do niej swoją infrastrukturę.
Widzimy stały trend wzrostowy sprzedaży infrastruktury, mimo tego, że chmura się rozwija. Mamy ponad 50 proc. udziału w polskim rynku serwerów. W ostatnim czasie przedsiębiorstwa wiele procesów biznesowych, interakcji z klientami oraz partnerami przeniosły do świata cyfrowego. To utrwala trend wzrostu zapotrzebowania na moc obliczeniową i wirtualizację. Za tym idzie również potrzeba inwestycji w obszar bezpieczeństwa.
Warto tutaj zauważyć, że Dell Technologies od 30 lat działa w polskim sektorze IT, gdzie znany jest jako producent infrastruktury IT, a także urządzeń końcowych w miarę rozwoju tego obszaru. Dziedziny, w których mamy równie dużo do powiedzenia to multicloud oraz szeroko rozumiane bezpieczeństwo. Rośnie więc istotnie świadomość klientów i partnerów postrzegająca nas, jako dostawcę rozwiązań z obszaru bezpieczeństwa informatycznego. Nasze bardzo mocne strony to chociażby backup oraz ochrona użytkowników końcowych.
Inny aspekt bezpieczeństwa i jednocześnie ciekawostka – realizujemy też takie projekty, jak mobilne centra danych. Spora grupa klientów chce mieć swoje dane nie w chmurze, a w kontenerze, tak aby w stanie zagrożenia można je było łatwo relokować. Mamy na tym polu pierwsze wdrożenia. To jest element całościowego podejścia do bezpieczeństwa, który przekłada się na szanse biznesowe wspólnie z partnerami.
Niedawno, przy okazji rozmów przedstawicieli Dell Technologies z polskimi władzami, była mowa o planowanych inwestycjach i o tym, że nasz kraj ma stać się dla firmy centrum logistycznym i centrum innowacji. Co będzie to oznaczać dla partnerów?
Jest to mocny argument świadczący o tym, że Polska będzie odgrywać jeszcze ważniejszą rolę w całym EMEA. Przy okazji obchodów 30-lecia Dell Technologies w Polsce, widzimy jeszcze wyraźniej, iż nie ma drugiego takiego producenta, który pozycjonuje nasz kraj, jako unikalne miejsce inwestycji w skali całego regionu. Plan zakłada budowę w Polsce dużego centrum logistycznego, które w znacznym stopniu przejmie obsługę tej części Europy. Co to oznacza dla partnerów i ich klientów, chyba nie muszę tłumaczyć. Czas dostawy na lokalnym rynku ma szansę skrócić się z dni do godzin. W ogłoszonych planach jest także stworzenie w naszym kraju dużego centrum badawczo-rozwojowego, które zajmie się rozwojem oprogramowania dla naszych linii z segmentu enterprise, co będzie niezwykle istotne pod kątem dalszego wsparcia partnerów. Współczesne R&D są otwarte na to, co mówi rynek i partnerzy. Dzięki natomiast bliskiej lokalizacji polscy resellerzy i integratorzy będą mieli lepszy dostęp do R&D i inspirowania prac tego ośrodka swoimi potrzebami. Jest spora szansa, że przyszłe innowacje będą pochodną potrzeb lokalnych partnerów oraz ich klientów.
A jakie są plany dotyczące współpracy z partnerami?
Podobnie, jak przez ostatnie lata, tak i teraz dużo inwestujemy m.in. w automatyzację obsługi partnerów, tak aby można było łatwiej i szybciej tworzyć konfiguracje oraz wyceny, a w konsekwencji składać zamówienia. Na to mocno stawiamy w kanale sprzedaży pośredniej.
Chcemy też dalej pogłębiać wiedzę partnerów. Do tego służą wspomniane szkolenia zróżnicowane w zależności od roli czy stanowiska, jaką pełni dana osoba w firmie partnera, jak też edukacja w zakresie social media.
Angażujemy się też w to, aby partnerzy tworzyli swój własny kontent, bazujący na zebranych doświadczeniach i referencjach. Z założenia ma on być użyteczny dla samych klientów, tak aby Ci używali go w relacjach ze swoim klientami pokazując, jak technologia wspiera ich rozwój. Chcemy mocniej osadzić naszych partnerów w tym obszarze. Badania pokazują, że rośnie liczba klientów, którzy w dużej mierze potrafią samodzielnie zbudować rozwiązanie, wspierając się wiedzą i referencjami pozyskanymi w sieci.
Podążamy za klientami, którzy coraz częściej chcą płacić za użycie technologii w modelu usługowym. Niezmiennie pomagamy więc partnerom w wejściu w ten model biznesu.
Podsumowując, otwieranie nowych ścieżek dotarcia do rynku i klienta, ciągłe podnoszenie kompetencji partnerów, inwestycje w automatyzację procesów i narzędzi, a do tego dalsze dbanie o najlepszą dostępność, pozostają naszymi priorytetami w kanale sprzedaży pośredniej.
Zdaniem partnera
Partnerstwo z Dell Technologies ma dla naszej firmy strategiczne znaczenie. Wdrażamy i integrujemy produkty z całego portfolio firmy, ze szczególnym naciskiem na rozwiązania serwerowe, bezpieczeństwa i archiwizację danych. Projektujemy i implementujemy złożone systemy, od których wymaga się niezawodności.
Dla nas Dell Technologies to przede wszystkim znakomita jakość technologii, wysoki poziom szkoleń i wsparcia, elastyczne warunki współpracy. Bazując na rozwiązaniach tej marki możemy zapewnić klientom bezpieczeństwo danych na poziomie, którego oczekują. W tym roku mija 10 lat naszej współpracy z Dell Technologies Poland. W 2021 roku dołączyliśmy do grona tytanowych partnerów. To z kolei pokazuje, że rozwinęliśmy się nie tylko jako partner Dell Technologies, ale również jako firma.
Przez te minione lata mieliśmy setki wspólnych wdrożeń. O tym, jak współpracuje się z Dell Technologies, najlepiej świadczy historia początku naszej współpracy. W 2012 roku zainteresowaliśmy się chmurą. Była to wtedy w Polsce raczkująca technologia. Szukaliśmy dostawcy sprzętu, aby móc uruchomić własną usługę. Wielu producentów rozkładało ręce, a w Dell Technologies usłyszeliśmy: „Mamy w USA dostęp do wiedzy, gdzie takie rozwiązania są prawie gotowe. Pracujmy razem”. W efekcie udało nam się stworzyć bezpieczną, skalowalną usługę chmurową, z której w formule pay-as-you go korzystają zarówno duże międzynarodowe firmy, jak i małe biura.
Planujemy dalszy rozwój naszej współpracy i stale inwestujemy w chmurę. W ekosystemie Dell Technologies funkcjonujemy od niedawna jako Cloud Service Provider, dzięki czemu możemy zapewnić klientom korzystniejsze warunki zakupu lub wynajmu infrastruktury przeznaczonej do wykorzystania w ramach naszych usług chmurowych.
One System współpracuje z Dell Technologies od czasu otwarcia kanału partnerskiego w Polsce w 2008 roku w zakresie pełnego portfolio produktów i usług. Szczególnie ważne są dla nas biznesowe urządzenia klienckie wraz z peryferiami oraz serwery, macierze i rozwiązania do zabezpieczania danych. Realizujemy wdrożenia wykorzystujące tę infrastrukturę. W oparciu o współpracę z Dell Technologies Bank oferujemy naszym klientom także leasing i dzierżawę produktów Dell Technologies.
Partnerstwo z Dell Technologies pozwala nam odpowiednio wcześnie planować i utrzymywać ciągłą dostępność produktów dla naszych klientów. Ponadto, w obliczu bardzo długich terminów realizacji dostaw, dostęp do informacji jakie uzyskujemy wprost z linii produkcyjnych pozwala nam odpowiednio zaplanować prace w aktualnie prowadzonych projektach. Strategicznym celem One System jest dalszy rozwój współpracy z Dell Technologies, zarówno w kanale partnerskim, jak i sektorze średnich firm.
Artykuł 30-lecie Dell Technologies w Polsce – sekrety sukcesu i plany na przyszłość pochodzi z serwisu CRN.
]]>Artykuł Dystrybucja IT: krajobraz po fuzjach, sanacjach i upadłościach pochodzi z serwisu CRN.
]]> W ciągu minionych kilku lat polski rynek dystrybucji IT przeszedł znaczące zmiany, będące następstwem fuzji, sanacji, a także upadłości. W jaki sposób tego typu wydarzenia wpłynęły na biznesy prowadzone przez rodzimych integratorów?
Maciej Kałużyński: Kompletnie nie dotknęły nas problemy dystrybutorów, którzy zakończyli działalność w wyniku upadłości bądź przechodzili przez proces sanacji, gdyż nigdy nie współpracowaliśmy z tymi akurat firmami. Konsolidacja na rynku dystrybucji też nie miała większego wpływu na naszą działalność. Dobrze przeprowadzona fuzja bądź przejęcie nie powinny nieść za sobą turbulencji dla klientów czy partnerów. I tak też było w przypadku największych transakcji, które miały miejsce w ostatnich latach. Pojawiały się uwagi handlowców, że Webshop Also jest gorszy od InterLinka, ale często wynikały one z przyzwyczajenia do systemu ABC Daty. Największym wygranym wydaje się być AB, a więc dystrybutor, którego ominęły wszelkie zawirowania.
Piotr Jelski: Póki co bardziej dotknęły nas zmiany kadrowe wśród dystrybutorów. Natomiast same konsolidacje nie wiązały się z większymi perturbacjami. W początkowej fazie jednym z ich przejawów była mniejsza elastyczność działania, aczkolwiek z upływem czasu sytuacja wróciła do normy. Co istotne, przejęcia nie miały negatywnego wpływu na logistykę czy cash flow. Nie odczuliśmy też bezpośrednio skutków upadłości dystrybutorów. Natomiast zauważyliśmy, że instytucje ubezpieczeniowe z większą podejrzliwością podchodziły do firm z branży IT. Jednakże ich postawa nie miała wpływu na realizację naszych kontraktów.
Wojciech Muras: Sanacje i upadłości na rodzimym rynku dystrybucyjnym nie wpłynęły w żaden sposób na naszą działalność. Natomiast sprawy związane chociażby z zakupem S4E przez ABC Datę były dla nas istotne, na co złożyło się wiele czynników zewnętrznych, w tym przejęcie EMC przez Della. To wprowadziło do procesów dystrybucyjnych trochę niepewności po stronie ludzi, którzy nie wiedzieli, czy zachowają swoje miejsca pracy. Taki stan rzeczy sprawiał, że jakość obsługi została nieco zachwiana i była niższa. W przypadku innych procesów akwizycyjnych zauważyliśmy, że pierwszy rok zazwyczaj nie przyniósł większych zmian, ponieważ dystrybutorzy działający na polskim rynku mają ustabilizowaną pozycję. Jednakże po dwóch bądź trzech latach następuje zmiana kręgu decyzyjnego i wiele ustaleń, w tym związanych z finansami, zapada w nowym miejscu, co nie pozostaje bez wpływu na lokalny rynek. Upadłości i sanacje wywołały opóźnienia w dostawach komponentów i było to kłopotliwe dla podwykonawców.
Sławomir Zieliński: Fuzje i zmiany właścicielskie miały umiarkowany wpływ na nasz rynek. W branży integratorskiej bardziej pracujemy z ludźmi – Mariuszem czy Wojciechem – aniżeli Veracompem, ABC Datą czy Also. W większości przypadków zmieniały się tylko adresy e-mailowe pracowników, choć czasami zdarzało się, że ktoś odchodził z pracy i był to pewien problem, ponieważ trzeba było się nauczyć współpracy z nowymi osobami. Natomiast przyznaję, że w naszym zespole zmiana lubianego InterLinka ABC Daty na Webshop Also wywołała pewne negatywne reakcje.
W czasie dyskusji pojawił się wątek związany z przejęciem Della przez EMC. Czy akwizycje zachodzące wśród vendorów mają większy wpływ na działalność integratorów niż fuzje dystrybutorów?
Maciej Kałużyński: Zakup EMC przez Della był bardzo sprawnie przeprowadzoną transakcją. Jak do tej pory była to największa fuzja producentów, która w znacznym stopniu dotyczyła naszej działalności. Jednakże w żaden sposób nie zakłóciła ona naszego działania i oceniamy ją bardzo pozytywnie.
Wojciech Muras: Fuzje producentów mają większy wpływ na naszą działalność niż konsolidacje zachodzące w segmencie dystrybucji. O ile w przypadku dystrybutorów, jeśli nie wydarzy się jakieś nieszczęście, ich wpływ jest niewielki, o tyle podczas fuzji producentów dzieje się zdecydowanie więcej, zarówno pod kątem zagrożeń, jak i szans. Fuzje producentów wymagają od nas zaangażowania, musimy bowiem bacznie obserwować sam proces i umieć się w nim odnaleźć.
Piotr Jelski: Z perspektywy firmy realizującej projekty dla średnich i dużych organizacji, fuzje producenckie mają większy wpływ na biznes niż konsolidacje w segmencie dystrybucji. Integratorzy i resellerzy muszą poświęcić tego typu procesom wielu uwagi ze względu na łączenie się zespołów, a także zmieniające się decyzje dotyczące wsparcia konkretnych kontraktów. Pewne zamieszanie spowodowała transakcja Symanteca oraz Veritasa – kiedyś podmioty te były łączone, a potem rozdzielane.
Sławomir Zieliński: Fuzje dystrybutorów mają coraz mniejszy wpływ na działalność operacyjną tych integratorów, którzy dostarczają wartość dodaną. Jeśli firma jest klasycznym resellerem, wówczas to, co dzieje się wokół dystrybutora, na pewno ma znaczenie. Ale im dalej od typowej działalności resellerskiej, tym bardziej wzrasta znaczenie przejęć wśród producentów. Naszym zadaniem jest odnalezienie się w tej sytuacji. Ten, kto zrobi to skuteczniej, zyska silniejszą pozycję na rynku.
Jesteście panowie zgodni, że fuzje dystrybutorów nie mają większego wpływu na prowadzoną przez was działalność. Czy udałoby się jednak wskazać nawet niewielkie plusy konsolidacji, które miały miejsce na rodzimym rynku?
Piotr Jelski: Jednym z problemów jest zbyt duża liczba umów dystrybucyjnych zawieranych przez niektórych producentów. Konsolidacja sprawia, że tych umów jest mniej. Moim zdaniem złotym środkiem jest współpraca vendora z trzema dystrybutorami. Mniejsza ich liczba ogranicza konkurencję, zaś większa wprowadza zamieszanie na rynku. Konsolidacje prowadzą do tego, że zmniejsza się liczba dystrybutorów oferujących te same marki i to jest ten pozytywny aspekt.
Maciej Kałużyński: W tych dziwnych czasach dystrybucja produktów przez globalnych graczy, takich jak choćby Also, jest łatwiejsza ze względu na to, że dysponują wielkimi magazynami, a także dużymi możliwościami dotarcia do dostawców. Nie ukrywam, że w czasie okresów niedoboru produktów, trochę nam to pomaga. Już kilka razy udało nam się dzięki temu znaleźć komponenty, których nie było w polskich magazynach.
Wojciech Muras: Wiemy z własnych doświadczeń, że w przypadku konkretnych konfiguracji, globalni dystrybutorzy potrafią szybciej dostarczyć towar, niż firmy działające lokalnie. Poza tym konsolidacja sama w sobie jest korzystna, bowiem zbyt duża liczba dystrybutorów działających na lokalnym rynku stanowi pewnego rodzaju kłopot.
Sławomir Zieliński: Kiedyś na polskim rynku mieliśmy do czynienia z sytuacją, że producent posiadał jednego dystrybutora. Dziś mamy odmienny stan rzeczy, ale ważne jest poszukiwanie równowagi jeżeli chodzi o liczbę dystrybutorów danego producenta. W przypadku dystrybucji masowych produktów występuje zjawisko ekonomii skali, więc fuzje mogą mieć pozytywny wpływ. Duży gracz ma większe możliwości w zakresie magazynowania i logistyki towaru, ma większą siłę zakupową. Natomiast w grupie produktów niszowych, cały czas istnieje miejsce dla polskich dystrybutorów szukających swojego miejsca na rynku. Niektórzy potrafią odpowiedzieć na wyzwania i realizują swoje strategie z powodzeniem.
Konsolidacja rynku sprawiła, że z rynku zniknęli tacy dystrybutorzy jak ABC Data czy Veracomp. Czy nie obawiacie się, że tym samym została zachwiana równowaga na rynku dystrybucji i zostanie on zdominowany przez graczy z kapitałem zagranicznym?
Piotr Jelski: Zachowanie równowagi jest bardzo ważne. Globalni gracze dzięki efektowi skali mają dużo większe zasoby magazynowe i czasami lepsze ceny – to są ich atuty. Natomiast procesy decyzyjne, zapadające gdzieś poza Polską, nie zawsze muszą być korzystne dla rodzimych integratorów. Z punktu widzenia dużego dystrybutora globalnego, lepszym partnerem może być integrator międzynarodowy. Choć, jak na razie, nie zauważamy takiego postępowania. W każdym razie, silny dystrybutor lokalny jest jak najbardziej potrzebny, chociażby po to, żeby stanowić przeciwwagę dla międzynarodowych koncernów.
Maciej Kałużyński: Lokalność powoli przestaje istnieć. Coraz trudniej znaleźć dystrybutora działającego wyłącznie w jednym kraju. AB prowadzi operacje w Czechach i na Słowacji, nie jest zatem spółką działającą tylko lokalnie. Dlatego nie ma większego znaczenia czy dostawca pochodzi z Polski czy innego kraju. Tym bardziej, że wszystko wokół szybko się zmienia. Nawet nasza nieduża firma kooperuje z amerykańskim partnerem, trudno byłoby zatem powiedzieć, że działamy lokalnie.
A jak postrzegacie przejęcie Veracompu przez Exclusive Networks?
Wojciech Muras: To jest zmiana dużego kalibru, w efekcie której straciliśmy narodowego czempiona, który opanował znaczną część Europy Środkowo-Wschodniej. Za to należy się duży szacunek dla Adama Rudowskiego. Jednak na koniec dnia zderzył się z ekonomią skali i podjął decyzję o sprzedaży firmy. Jak do tej pory w Veracompie wszystko było dobrze poukładane. Czas pokaże, co będzie dalej, aczkolwiek wydaje mi się, że jakaś korekta nastąpi.
Maciej Kałużyński: Z praktycznego punktu widzenia na razie nie widać tej zmiany. Współpraca toczy się tak samo jak przed fuzją. Nie ma żadnych kłopotów, co oznacza, że proces łączenia przebiega bardzo sprawnie.
Piotr Jelski: Firma zapowiadała, że mogą nastąpić przejściowe trudności, ale proces miał miejsce na początku stycznia i był przeprowadzony bardzo płynnie.
Sławomir Zieliński: Na obecną chwilę nie dostrzegamy żadnych różnic, ale – tak jak wspominaliśmy w czasie tej dyskusji – pierwszy rok po fuzji jest najmniej odczuwalny dla partnerów. Trzeba będzie przyglądać się portfolio i udziałowi dystrybutora w rynku w poszczególnych markach i segmentach produktowych. Szczególnie ciekawy wydaje się być segment data center, który nie jest domeną nowego właściciela.
Jak wyglądać będzie przyszłość Actiona oraz Komputronika po sanacji? Czy wymienione firmy będą odgrywać istotną rolę na rodzimym rynku dystrybucji?
Sławomir Zieliński: Współpracowaliśmy wprawdzie z wymienionymi dystrybutorami, ale nie byli oni naszymi kluczowymi dostawcami. Obecnie po ofertę Actiona sięgamy wtedy, kiedy nie możemy znaleźć produktów u innych dostawców. W przypadku Komputronika jest jeszcze gorzej, bowiem kooperacja całkowicie wygasła.
Piotr Jelski: Trudno jest mi się odnieść do tego pytania, bo współpracowaliśmy z tymi dystrybutorami w niewielkim stopniu i to się nie zmieniło. Choć osobiście mam sentyment do Actiona, ponieważ wiele lat temu kupowałem od nich komponenty dla celów prywatnych.
Maciej Kałużyński: Nigdy nie współpracowaliśmy z Actionem, zaś Komputronika postrzegaliśmy raczej bardziej jako konkurenta aniżeli partnera.
Przez długie lata na rynku dystrybucji istniał podział na broadlinerów oraz VAD-ów. Czy po licznych zmianach organizacyjnych, a także technologicznych, ma on nadal rację bytu?
Maciej Kałużyński: Nie wiem, czy ten podział jeszcze istnieje, tym bardziej, że dystrybutorzy posiadają własne centra kompetencyjne poświęcone określonym technologiom czy vendorom. Odnoszę natomiast wrażenie, że każdy dystrybutor oferuje wartość dodaną. Jeśli integrator czuje się słabszy w danej technologii, skorzysta z wartości dodanej dostarczanej przez dystrybutora.
Sławomir Zieliński: Powiedziałbym, że prawie wszyscy chcą być albo próbują być dystrybutorami z wartością dodaną. Budują swoje centra kompetencyjne, ale jak to zwykle bywa, jednym wychodzi to całkiem nieźle, innym gorzej. Problem polega na tym, że niektórzy dystrybutorzy chcą z nami rozmawiać o dużych, złożonych projektach, ale zapominają o swoich podstawowych obowiązkach związanych z logistyką, komunikacją czy terminowością. Dobrze, że próbują tworzyć wartość dodaną, ale ważne, żeby nie zapominali o fundamentach.
Wojciech Muras: Właśnie te fundamenty są najważniejsze. W dzisiejszym świecie budowanie wartości dodanej przez dystrybutora nie jest najlepszą strategią, ponieważ jest niezwykle trudne. Wystarczy skupić się na dobrej realizacji kwestii związanych z logistyką oraz finansami. Niech robi to, co powinno być silną stroną dystrybutora. Resztę lepiej byłoby zostawić innym podmiotom, tym które są bliżej klientów i lepiej znają ich potrzeby, jak też trendy rynkowe. Wspomniany w pytaniu podział miał znaczenie wiele lat temu, kiedy dystrybutor był bliżej vendora, ale świat się zmienił.
Piotr Jelski: Podział dystrybutorów na VAD-ów i broadlinerów już się zatarł. Po fuzjach, które miały miejsce w ostatnich latach, niemal każdy dystrybutor zyskał zespoły zajmujące się wsparciem w zakresie konkretnych technologii czy marek. Natomiast trudno byłoby mi określić, który z dystrybutorów oferuje najwięcej wartości dodanej. Tak czy inaczej, wszyscy zajmują się logistyką i finansowaniem, ale posiadają także specjalistów pomagających w budowie i projektowaniu konkretnych rozwiązań.
Fuzje powodują, że dystrybutorzy stają się mocniejsi, chociażby dzięki większemu dostępowi do kapitału. Wchodzą w nowe obszary rynku, rozszerzają ofertę w zakresie usług, a także sięgają po nowe modele biznesowe. Czy związany z tym rozwój platform chmurowych jest naturalną rolą dystrybutora? Czy nie zostaną oni wypchnięci z tego biznesu przez największych providerów?
Wojciech Muras: Nie liczę na pomoc ze strony dystrybucji w zakresie sprzedaży usług chmurowych. Zdecydowanie bardziej aktywni na tym polu są producenci oferujący różne rozwiązania w postaci usługowej. Zresztą z różnym skutkiem. Dystrybutorzy nie są istotnymi graczami w tym segmencie rynku. Są jedynie pośrednikami próbującymi odnaleźć się w tej sytuacji. Dystrybutorzy wybrali koncepcję wejścia do głębokiej rzeki, która płynie szerokim nurtem i mają nadzieję, że znajdą w nim swoje miejsce. Chcą to zrobić opierając się na modelu stosowanym od lat, czyli kupowaniu sprzętu od producentów, a następnie jego odsprzedaży do partnerów. Wbrew pozorom może im się to udać, ale pod warunkiem, że będą gwarantami płatności największych dostawców chmury publicznej. Natomiast nie wierzę, że wprowadzą jakieś swoje własne usługi, ponieważ od tego są producenci oprogramowania.
Piotr Jelski: Jako integrator nie oczekujemy od dystrybutorów, żeby dostarczali własne usługi chmurowe. Ten rynek jest podzielony pomiędzy trzy wielkie koncerny i lokalnych dostawców, trudno jest znaleźć miejsce dla kolejnych graczy. Pewnego rodzaju zagrożeniem jest skracanie łańcucha dostaw, co widzimy już na przykładzie producentów likwidujących całe działy sprzedaży w niektórych krajach. Producenci albo duzi providerzy zawierają umowy z większymi integratorami, pozbywając się tym samym dystrybutorów z łańcucha sprzedaży. Jednak na podstawie jednostkowych przypadków nie można stwierdzić, że byt tych ostatnich jest zagrożony.
Czy podczas budowy środowiska multi-cloud bądź chmury hybrydowej zamierzacie korzystać ze wsparcia dystrybutorów?
Piotr Jelski: Możliwe, że będziemy potrzebować wsparcia, ale nie sądzę, żebyśmy go szukali wsród dystrybutorów. Wprawdzie staramy sobie radzić z projektami we własnym zakresie, aczkolwiek konsultacje z zewnętrznymi dostawcami tego typu usług mogą być interesującym doświadczeniem. Kolejną linią wsparcia mogliby być producenci oprogramowania, które realizuje konkretne potrzeby przy budowie środowiska multicloud.
Wojciech Muras: W tego typu przypadkach nie liczymy na wsparcie ze strony dystrybutorów. Gdybyśmy mieli wątpliwości, w pierwszej kolejności zwrócilibyśmy się o pomoc do dostawcy usług, a następnie producenta aplikacji, a w ostatniej kolejności do dystrybutora. Choć wydaje mi się, że już dwa pierwsze kontakty pozwoliłyby rozwiązać problem.
Maciej Kałużyński: Dysponujemy wiedzą pozwalającą zbudować takie środowisko. W zależności od tego, co będzie przedmiotem problemu, trzeba będzie wykonać odpowiedni telefon. Jednak z pewnością nie będziemy kontaktować się z dystrybutorem, lecz dostawcą systemów bezpieczeństwa bądź backupu.
Sławomir Zieliński: My nie korzystamy z płatnych usług inżynierów, którzy pracują dla dystrybutorów. Przy realizacji zaawansowanych projektów korzystamy z własnych zasobów lub producentów. Nie oznacza to, że dystrybutorzy nie są potrzebni, ale w naszym przypadku oczekujemy od nich głównie realizacji działań taktyczno-operacyjnych.
Czy kiedykolwiek skorzystaliście z porad dystrybutorów, które miały wpływ na wasze decyzje strategiczne? Wydaje się, że dystrybutorzy utracili przymiot przywództwa, jakim kiedyś dysponowali. Dwie dekady temu wszyscy patrzyli na to, co robi dystrybucja, wytyczająca wówczas kierunki rozwoju rynku IT. Dziś jest inaczej…
Maciej Kałużyński: Z rynkiem IT jestem związany od 15 lat i w tym czasie nie zauważyłem, żeby dystrybucja kiedykolwiek pełniła rolę przywódczą. Uważam, że pełnią ją vendorzy oraz integratorzy, którzy są blisko klientów końcowych. Choć nie ukrywam, że w czasie spotkań z szefami ABC Daty czy AB otrzymałem wiele cennych wskazówek ułatwiających prowadzenie biznesu.
Piotr Jelski: Dystrybutorzy nie kreują wizji rozwoju rynku. Robią to firmy wytwarzające produkty lub oferujące usługi. Co wcale nie oznacza, że dystrybutorzy nie mają wpływu na strategiczne decyzje, jednak nie tyle firm, co konkretnych osób. Mam bardzo dobre relacje z Markiem Janasem. Z Adamem Rudowskim i Andrzejem Przybyło rozmawiałem raz, może dwa razy w życiu i były to inspirujące spotkania. Dzięki spotkaniom z wymienionymi osobami, ale także szeregowymi pracownikami dobrych firm dystrybucyjnych, nie raz podejmowaliśmy trafne decyzje.
Sławomir Zieliński: Jestem związany z rynkiem IT od jedenastu lat. W tym czasie rola dystrybutorów raczej się nie zmieniła. Nie zauważyłem, żeby ten element przywództwa kiedykolwiek w ich przypadku występował. Być może rzeczywiście brakuje dystrybutora, który wyszedłby poza działania związane z logistyką czy finansowaniem i podzieliłby się z integratorem swoją wiedzą na temat trendów rynkowych czy rozwoju produktów. Moim zdaniem pozycja dystrybutora jest bardzo trudna, bowiem znajduje się pomiędzy producentem a integratorem, mając niewielki wpływ na efekt końcowy, co szczególnie dotyczy zaawansowanych projektów.
Wojciech Muras: Z perspektywy firmy działającej ponad 20 lat na rynku IT mogę powiedzieć, że dystrybutorzy jako podmioty nie pomogli nam w podjęciu żadnych strategicznych decyzji. Owszem, wnosili wartość taktyczną, udzielając nam cennych wskazówek. Na podstawie tego typu porad można było budować pewne kompetencje i łatwiej odnaleźć swoje miejsce na rynku. Jednakże osobną kwestią jest rola przywódców, takich jak Adam Rudowski czy Marek Janas i takich osobowości będzie nam brakowało na rynku. Szczególnie w sferze zarządzania zyskałem bardzo wiele dzięki uwagom Adama i Marka, za co chciałbym im w tym miejscu podziękować. Jeśli nie będzie takich osobowości, nie ma co liczyć na strategiczne przywództwo dystrybutorów.
Artykuł Dystrybucja IT: krajobraz po fuzjach, sanacjach i upadłościach pochodzi z serwisu CRN.
]]>Artykuł Jak brak deszczu na Tajwanie sprawia, że powinniśmy zacząć realizować zakupy IT na Q4 pochodzi z serwisu CRN.
]]>Wzrost produkcji spowodował wzmożone zapotrzebowanie na podzespoły, z których składają się upragnione przez klientów komputery, monitory i smartfony. Producenci tych podzespołów także podnieśli tempo produkcji, składając odpowiednio wyższe zamówienia u swoich dostawców, firm dostarczających półprzewodnikowe komponenty, takie jak procesory, sterowniki, pamięci czy modemy. I wtedy zaczęły się prawdziwe problemy.
Krzemowy węzeł gordyjski
W porównaniu do produkcji komputerów czy nawet ich podzespołów – branża chipów jest skrajnie nieelastyczna i zwyczajnie nie jest w stanie zwiększyć produkcji w reakcji na rosnący popyt. Wiąże się to po części z ograniczeniami procesów technologicznych, które w przypadku wytwarzania półprzewodników są zaskakująco długie. Mało kto zdaje sobie sprawę z tego, że wyprodukowanie pojedynczego procesora to proces, który trwa nie kilka godzin czy dni, ani nawet parę tygodni, ale niemal cztery miesiące! Wzrost produkcji uruchomiony w środku zimy rynek odczułby dopiero w początkach lata… Jednak czas to tylko część problemu. Drugim są pieniądze.
Urządzenia, które są wykorzystywane do wytwarzania chipów są ekstremalnie drogie, ich produkcja odbywa się na zamówienie, a cały proces zajmuje bardzo dużo czasu. Wdrażanie nowych procesów technologicznych czy rozbudowa możliwości wytwórczych zajmuje lata, a zwrot z takich inwestycji jest obliczany na dekady. W związku z astronomicznymi kosztami i skrajną specjalizacją branża półprzewodników jest praktycznie zmonopolizowana. Kiedy wszystko działa jak trzeba, to nie jest duży problem, ale jeśli coś pójdzie nie tak, powstaje wąskie gardło, którego nie ma jak poszerzyć.
Na scenę wkracza pogoda
Spójrzmy więc na rynek półprzewodników w 2021 r. Niestety, nie jest to zbyt optymistyczny obrazek: producenci chipów nie są w stanie zwiększyć produkcji, ponieważ wiązałoby się to z potężnymi inwestycjami, których zwrot byłby wysoce niepewny, a ich skutki i tak zaczęłyby być odczuwalne dla rynku dopiero po kilku latach. Braki chipów odczuwają dotkliwie nie tylko producenci komputerów, monitorów, tabletów czy smartfonów, ale też firmy motoryzacyjne czy wytwarzające sprzęt gospodarstwa domowego. Jakby nie patrzeć, różnego rodzaju sterowniki są dziś ważnym elementem niemal każdego urządzenia.
Tymczasem popyt nie maleje. Wywołany pandemią boom na sprzęt komputerowy wydaje się utrzymywać, bo model pracy zdalnej przyjął się na dobre i rozpoczął nieuchronny ruch ku cyfrowej transformacji. Coraz więcej przedsiębiorstw dostrzega korzyści, jakie w dłuższej perspektywie może odnieść dzięki elastyczności i mobilności „cyfrowych” pracowników, cyfryzacji procesów czy przeniesieniu działań do chmury. Coraz więcej systematyzuje teraz wprowadzone w pośpiechu pod wpływem konieczności zmiany. To wszystko prowadzi do jednego: wzmożonych zakupów.
I tu pora, żebyśmy wrócili do tajwańskiego deszczu, czy raczej jego zaskakującego braku i związku tego zjawiska z naszą sytuacją. Otóż, brak monsunowych opadów prowadzi do katastrofalnej suszy, jakiej Tajwan nie zaznał od 56 lat. Wiele zbiorników wodnych już w tej chwili magazynuje zaledwie 20, a w niektórych miejscach nawet mniej niż 10 proc. zwykłej objętości wody. Susza jest katastrofą dla rolnictwa i poważnym problemem dla ludności, ale przecież ogromnych ilości wody potrzebuje też przemysł. 90 proc. światowej produkcji półprzewodników odbywa się właśnie na Tajwanie. Tymczasem rząd tego państwa już zwrócił się do przemysłu o graniczenie zużycia wody o 13 proc., co z pewnością będzie oznaczało także zmniejszenie produkcji. A może to być dopiero początek kłopotów z wodą.
Wyprzedzić kłopoty
Pandemii nie dało się przewidzieć. Tajwańska susza jest skutkiem globalnych zmian klimatu, które są śledzone i badane od dawna, jednak modelowanie konkretnych efektów, jakie będą one miały dla poszczególnych krajów jest bardzo trudne i obarczone znaczną niepewnością. Natomiast skutki jednego i drugiego zjawiska dla rynku IT w Polsce są oczywiste: będą opóźnienia, a ceny mogą rosnąć. Uzbrojeni w tę wiedzę możemy pójść o krok dalej i postarać się zminimalizować problemy dla naszej firmy, jednak by to się udało trzeba zacząć działać już teraz.
Przygotowanie do zakupów zaplanowanych na czwarty kwartał musi zacząć się w tej chwili. Zerknijmy na to bardziej szczegółowo. Przyjmijmy, że przedsiębiorstwo ma w planach inwestycję, której budżet jest zaplanowany na Q4. Rozpoczynając w tym momencie prace projektowe oraz wycenę, mamy szansę zamknąć tę fazę do końca sierpnia 2021. Warto pamiętać, że niejako po drodze jest sezon urlopowy, który nieuchronnie przedłuży każdy proces. Z projektem w ręku jesteśmy gotowi do złożenia zamówienia – dajmy sobie na to trochę ponad tydzień i załóżmy, że 10 września nasze zamówienie trafi do producentów.
Biorąc pod uwagę wszystkie okoliczności, które omawialiśmy, rozsądnie będzie oczekiwać, że realizacja zamówienia może zająć nawet trzy miesiące – tyle czasu może zająć wyprodukowanie i skompletowanie sprzętu, a także dostarczenie go do Polski. Oznacza to, że zamówienie trafi do firmy w grudniu i dopiero wtedy otrzymamy fakturę, mieszcząc się w zaplanowanym na Q4 budżecie.
Nie mamy wpływu na to, jak i kiedy uda się rozwiązać globalny problem niedoboru komponentów, jednak w skali naszego biznesu możemy myśleć z wyprzedzeniem, planować i działać, by zminimalizować spowodowane przez ten problem niedogodności.
Autor jest kierownikiem sprzedaży w One System.
Artykuł Jak brak deszczu na Tajwanie sprawia, że powinniśmy zacząć realizować zakupy IT na Q4 pochodzi z serwisu CRN.
]]>Artykuł Dell Technologies Partner Awards 2021 pochodzi z serwisu CRN.
]]>Wśród 13 nagrodzonych firm są integratorzy, którzy – jak podkreślał organizator gali – wyróżnili się wielkością przeprowadzonych projektów i dwucyfrowymi wzrostami swojego biznesu. Pomagali przekształcać firmy w wydajne i pełne mocy środowiska pracy, gotowe na wyzwania współczesnego świata. Są też partnerzy, którzy z kolei wyróżnili się największą dynamiką wzrostu sprzedaży produktów klienckich dla biznesu – począwszy od podstawowych po zaawansowane rozwiązania serwerowe i wydajne, nowoczesne, w pełni skalowane sieciowe pamięci masowe. Wyróżniono również dostawców usług (w tym chmurowych), dzięki którym wyraźnie wzrosła ich sprzedaż na rynku polskim.
Ponadto producent nagrodził dystrybutorów specjalizujących się w rozwiązaniach klienckich i infrastrukturalnych. Nie zabrakło nagród i wyróżnień dla retailerów, którzy osiągnęli najwyższe wyniki sprzedaży produktów konsumenckich w ostatnim roku obrotowym i w rezultacie w znaczący sposób zwiększyli widoczność marki Dell na polskim rynku detalicznym.
Ten najważniejszy tytuł – Partnera Roku Dell Technologies Polska – otrzymała Comtegra. Odbierający nagrodę Piotr Jelski, prezes zarządu firmy, podkreślił, że sumiennie zapracował na nią cały jego zespół. Wyrażając wdzięczność wszystkim osobom z Della, z którymi Comtegra współpracuje, uznał tak ważne wyróżnienie za motywację do kolejnych wspólnych projektów. Należy dodać, że za personalne osiągnięcia został doceniony Piotr Zneykus, odpowiedzialny za sprzedaż portfolio Dell EMC w Tech Dacie.
Do zobaczenia w realu!
W prowadzeniu wirtualnej gali Dariuszowi Okrasie, Senior Channel Sales Managerowi w Dell Technologies Polska, pomagała Ola Nguyen – najmłodsza zwyciężczyni Master Chef Polska. W trakcie ceremonii na oczach wszystkich uczestników dekorowała tort ingrediencjami, z których każda wyrażała inną kategorię wręczanych nagród.
Ponieważ wcześniej zgromadzeni przed komputerami uczestnicy gali otrzymali pudełko ze słodkim upominkiem, to wspólna degustacja kończąca ten oryginalny event pozwoliła choć na chwilę zapomnieć o wymuszanych przez pandemię ograniczeniach i była oznaką wyrażanej głośno przez wszystkich nadziei, że Dell Technologies Partner Awards 2022 odbędzie się już „w realu”.
DELL TECHNOLOGIES PARTNER AWARDS 2021
Artykuł Dell Technologies Partner Awards 2021 pochodzi z serwisu CRN.
]]>Artykuł Polscy partnerzy nagrodzeni przez Della pochodzi z serwisu CRN.
]]>Jak co roku Dell Technologies nagrodził polskich partnerów. Podczas gali, która jak to w czasach pandemii odbyła się online, statuetki przyznano w kilkunastu kategoriach. Wśród 13 nagrodzonych firm są integratorzy, dostawcy usług, dystrybutorzy, detaliści. Tytuł Partnera Roku Dell Technologies Polska otrzymała Comtegra. Za personalne osiągnięcia został doceniony Piotr Zneykus, odpowiedzialny za sprzedaż portfolio Dell EMC w Tech Dacie.
Oto lista laureatów Dell Technologies Partner Awards 2021:
Partner of the Year – Comtegra
Excellence in New Business Development – One System
Excellence in Cloud Services Sales – Netia
Excellence in Client Solutions Sales – Intaris
Excellence in Infrastructure Solutions Sales – Advatech
Excellence in Innovation – IT Punkt
Excellence in Social Impact – NTI Polska
Distributor of the Year – Client Solutions – Also Polska
Distributor of the Year – Infrastructure Solutions – Arrow ECS
Excellence in Consumer Sales – x-kom
Excellence in Services – Net-o-logy
Personal Achievement – Piotr Zneykus, Tech Data
Rising Star – Prodata
Excellence in Marketing – Intratel
Wszystkim nagrodzonym serdecznie gratulujemy!
Artykuł Polscy partnerzy nagrodzeni przez Della pochodzi z serwisu CRN.
]]>Artykuł Dell nagrodził polskich partnerów pochodzi z serwisu CRN.
]]>
Channel Partner of the Year – ITPunkt
Personal Achievement Award – Mateusz Sawicki, AB – dystrybutor nowoczesnych technologii
Client Distributor of the Year – Also Group
Enterprise Distributor of the Year – Arrow ECS Polska
Retailer / E-tailer of the Year – x-kom
Workforce Transformation Partner of the Year – AB System oraz One System
IT Transformation Partner of the Year – Net-o-logy
Dell Brand Ambassador – Comtegra
Dell Financial Services Ambassador – ITPunkt
Net New Business Partner of the Year – NetLand
Data Protection Solutions Partner of the Year – Integrated Solutions Polska
Services Partner of the Year – Vescom
Wielkie gratulacje dla wszystkich laureatów!
Artykuł Dell nagrodził polskich partnerów pochodzi z serwisu CRN.
]]>Artykuł Co piąta polska firma straciła dane pochodzi z serwisu CRN.
]]>Statystyki Kroll Ontrack potwierdzają dwa najczęściej występujące problemy: w 56 proc. utrata danych jest wynikiem awarii sprzętu, a w 26 proc. – błędu człowieka. Pozostałe przyczyny pojawiają się dużo rzadziej: są to błędy oprogramowania (9 proc.), wirusy (4 proc.) oraz katastrofy naturalne, jak powodzie czy pożary (2 proc.). W ciągu ostatnich 25 lat najtrudniejsze przypadki dotyczące odzyskiwania danych były związane z fizycznym uszkodzeniem sprzętu, spaleniem bądź zalaniem nośników danych.
10 tys. zł straty na godzinę
Analitycy oszacowali koszt przestoju średniej wielkości firmy w Polsce na ok. 10 tys. zł netto za godzinę, co przy ośmiogodzinnym dniu pracy przekłada się na kwotę 80 tys. zł netto. Taka strata w mniejszych biznesach może skutkować nawet utratą płynności finansowej. Wskazano, że szkody nie ograniczają się tylko do sfery finansowej – awarie mogą zaszkodzić reputacji firmy, osłabić lojalność jej klientów i wpłynąć na relacje z dostawcami oraz partnerami biznesowymi (np. jeżeli na komputerach firmowych są przechowywane wrażliwe dane o pracownikach czy klientach).
Wykorzystanie danych warunkuje także konkurencyjność biznesu. Informacje i ich analiza są wykorzystywane m.in. do poprawy procesów biznesowych, w celach reklamowych, marketingowych, do zarządzania wydajnością produkcji, podejmowania decyzji itd.
– Dla wielu małych przedsiębiorstw dane są dziś najważniejszym elementem ich działalności. W przypadku ich utraty odzyskanie może zająć miesiące – mówi Elijah Rhyne, specjalista ds. PR i marketingu w Synology.
23 razy większa szansa na pozyskanie klientów
Dzięki cyfrowej transformacji dane są motorem napędowym dla biznesu i całej gospodarki. Jak podaje Polski Instytut Ekonomiczny, wartość gospodarki opartej na danych jest w Polsce szacowana na 6,2 mld euro, a w 2025 r. może wynieść między 7,9 mld a 12 mld euro.
Według McKinsey Global Institute firmy „napędzane przez dane” mają o 23 razy większą szansę na pozyskiwanie nowych klientów i sześciokrotnie większą na ich późniejsze zatrzymanie. IDC szacuje z kolei, że na koniec ubiegłego roku światowe przychody z rozwiązań big data i analityki biznesowej (BDA) przekroczyły 189 mld dol. (wzrost o 12 proc. r/r), a do 2022 r. sięgną już 274,3 mld dol.
Branże, które najwięcej inwestują w duże zbiory danych i rozwiązania analityki biznesowej, to m.in. bankowość, produkcja i usługi profesjonalne.
– Coraz więcej firm zaczyna sobie uświadamiać znaczenie właściwego zarządzania danymi. Można zaobserwować coraz większe potrzeby i świadomość w tej dziedzinie – twierdzi ekspert Synology.
Zasada 3-2-1
Badanie Kroll Ontrack pokazuje, że większość użytkowników prywatnych i biznesowych (67 proc.) wykonuje kopie zapasowe – 58 proc. badanych przyznało, że robi to codziennie, natomiast 30 proc. tworzy backup raz w tygodniu lub raz w miesiącu. Z drugiej strony duża liczba użytkowników sprzętu elektronicznego, bo aż 33 proc., wciąż nie tworzy backupu. Większość tłumaczy to tym, że jest to czasochłonne i żmudne. Jedna z podstawowych reguł to 3-2-1, zgodnie z którą należy zawsze mieć trzy backupy na dwóch różnych nośnikach i przynajmniej jeden z nich poza domem lub firmą.
Źródło: Newseria Biznes
Artykuł Co piąta polska firma straciła dane pochodzi z serwisu CRN.
]]>Artykuł Czy oprogramowanie zdobędzie centrum danych? pochodzi z serwisu CRN.
]]>Wraz z Software Defined pojawiły się też obawy ze strony administratorów IT u klientów, związane z tym, że automatyzacja może ograniczać zapotrzebowanie na informatyków w firmach. Te zarzuty są przez integratorów odpierane.
– Dzisiaj na rynku brakuje inżynierów, a będzie brakować ich jeszcze bardziej. Automatyzacja nie odwróci tego trendu, a informatycy powinni zaznajamiać się z nowymi narzędziami bez względu, czy będzie to SDN, czy inne rozwiązanie – twierdzi Marcel Guzenda, Business Solutions Architect w Sevenecie.
Dziś wciąż trudno mówić o przełomie. O ile jednak SDN (Software Defined Networking), a także SDS (Software Defined Storage) czy całościowa koncepcja SDDC (Software Defined Data Center) nie zyskały jeszcze powszechnego uznania w przedsiębiorstwach, o tyle nowe technologie przyczyniły się do zmiany ukierunkowania branży IT – ze sprzętu na oprogramowanie. Warto dodać, że dwa lata temu Gartner radził, by przedsiębiorstwa koncentrowały się nie na wyborze i zakupie konkretnych rozwiązań SDN, ale na celach do osiągnięcia takich jak: zwiększona automatyzacja, większa elastyczność, niższe koszty i mniejsze uzależnienie od jednego dostawcy. I właśnie to integratorzy, którzy chcą oferować omawiane technologie, powinni mieć na uwadze.
Koncepcja SDN zapowiadała początek nowej ery w rozwoju sieci, z programowym, scentralizowanym kontrolerem oddzielonym od warstwy sprzętowej, protokołem sterowania OpenFlow, interfejsami API i niedrogimi urządzeniami sieciowymi. Rzeczywistość okazała się jednak bardziej skomplikowana, i to w momencie, gdy do akcji wkroczyli rynkowi potentaci branży IT.
Obecnie liderami rynku, walczącymi o pierwsze miejsce w sprzedaży SDN, są Cisco i VMware. Liczy się także Arista oraz dostawcy rozwiązań typu white box, a pierwszą piątkę zamyka Huawei.
SDN w wydaniu Cisco to oferta „sieci intuicyjnych” (Intent-Based Networking) z programową platformą Cisco DNA i narzędziem do centralnego zarządzania Cisco DNA Center. Jak twierdzi producent, dzięki tej platformie każde urządzenie sieciowe – przewodowe, bezprzewodowe lub szerokopasmowe – staje się częścią ujednoliconej architektury sieciowej (unified fabric), a działy IT w przedsiębiorstwach mogą łatwiej, bardziej ekonomicznie i skutecznie kontrolować infrastrukturę sieciową. Cisco zwraca uwagę na otwartość DNA Center, co ma ułatwiać klientom i partnerom firmy rozwijanie ekosystemu aplikacji.
Jak tłumaczy Marcel Guzenda z Sevenetu, jednego z parterów Cisco, zapotrzebowanie na programowalną infrastrukturę pojawiło się najpierw w centrach danych, co wynikało z konieczności automatyzacji, orkiestracji i szybszego tworzenia środowisk dla aplikacji, ale obecnie można mówić o Software Defined Everything. Wcześniej konfigurowanie serwerów, pamięci masowych, sieci i wirtualizacji to był długi proces. Obecnie trzeba wprowadzać zmiany z dnia na dzień, jeśli zażyczy sobie tego klient biznesowy.
– Wyobraźmy sobie, że w sieci dużej korporacji czy banku trzeba dodać 100 nowych przełączników. Jeśli są one podłączane do SDN, to w systemie nadajemy im role, a wówczas automatycznie spłyną do nich konfiguracje, polityki i wszystko to, co wcześniej zdefiniowaliśmy. Co ważne, dochodzi do zniwelowania różnic pomiędzy połączeniami kablowymi a bezprzewodowymi – przede wszystkim na poziomie zabezpieczeń – mówi Marcel Guzenda.
Klienci uzyskują dostęp do możliwości oprogramowania Cisco DNA w ramach subskrypcji, gdy kupią sprzęt tego producenta z nowej serii przełączników Catalyst 9000. Takie podejście do SDN, jedynie na własnej platformie sprzętowej, jest przedmiotem krytyki ze strony rywali Cisco. Przede wszystkim VMware’a, który podkreśla, że jego oprogramowanie do wirtualizacji i programowania sieci – NSX – można uruchamiać na dowolnym sprzęcie.
– Istotą działania sieci w modelu Software Defined jest wykorzystywane oprogramowanie, więc technologia ta jest niezależna od sprzętu. Jeśli mamy definiowaną programowo sieć, związaną z układami ASIC, to znacznie trudniej ją wdrożyć i zoperacjonalizować. Okazuje się też znacznie droższa, ponieważ trzeba kupić odpowiednie przełączniki – mówi w wywiadzie dla amerykańskiego CRN-a Tom Gillis, wiceprezes i szef działu Networking and Security w VMware.
Wdrażający SDN amerykańscy partnerzy Cisco zwracają jednak uwagę na duży zwrot z inwestycji, jaki uzyskują klienci, którzy dotąd sporo zainwestowali w opartą na układach ASIC architekturę sieciową Cisco. Do tego dochodzą tysiące wysoko wykwalifikowanych architektów sieciowych, zarówno w kanale sprzedaży, jak i po stronie klientów, mogących być ekspertami we wprowadzaniu bezpiecznej automatyzacji sieci. Bez porównania więcej integratorów dysponuje certyfikowanymi i przeszkolonymi inżynierami Cisco. Tych, którzy mają specjalistów od NSX-a, jest bardzo mało.
Cisco Intent-Based Networking
Cisco dużo inwestuje we własną platformę sieci intuicyjnej, która ma przewidywać zdarzenia, blokować zagrożenia bezpieczeństwa oraz stale się rozwijać i uczyć. Wraz z nią wprowadza do podstawowego portfolio sieciowego model oparty na subskrypcji i tworzy bardziej otwartą, programowo definiowaną architekturę. Producent udostępnia DNA Center – platformę kontroli i zarządzania dla sieci intuicyjnej, która umożliwia partnerom opracowywanie niestandardowych aplikacji i oferowanie klientom większego wyboru rozwiązań SDN. Firmy uzyskują dostęp do możliwości oprogramowania DNA w ramach subskrypcji, gdy kupią sprzęt z nowej serii przełączników Catalyst 9000.
VMware NSX Cloud
Nowa platforma NSX Cloud to część nowej strategii VMware’a. Rozwiązanie zapewnia spójne środowisko sieciowe i bezpieczeństwo aplikacjom działającym zarówno w prywatnych, bazujących na sprzęcie VMware centrach danych, jak i natywnie w chmurach publicznych (oferując funkcjonalności dla Microsoft Azure i AWS). Zadaniem NSX Cloud jest rozwiązanie problemów, które wynikają z wykorzystywania wielu chmur publicznych, takich jak niespójne reguły polityki, konieczność ręcznego ich tworzenia dla każdej chmury z osobna i używania specyficznych narzędzi w różnych chmurach publicznych.
Dell EMC Open Networking
Inicjatywę Open Networking producent rozpoczął w 2014 r. Ma ona być sposobem na propagowanie idei oddzielenia sieciowego sprzętu przełączającego od oprogramowania. Dell EMC stworzył Open Network Install Environment wraz z firmą Cumulus Networks, a następnie nawiązał współpracę z większą liczbą partnerów dostarczających sieciowy system operacyjny, w tym Big Switch Networks, IP Infusion i Pluribus Networks. Nie tak dawno udostępnił też własny system (OS10), który dezagreguje oprogramowanie sieciowe, oferując większy wybór sposobów jego wykorzystania. W obszarze SDN firma współpracuje także z Microsoftem.
DataCore SANsymphony
DataCore to producent, który nigdy nie posiadał własnej platformy sprzętowej i z ofertą SANsymphony jest jednym z pionierów w branży programowo definiowanej pamięci masowej. Rozwiązanie zapewnia typowy zestaw usług klasy enterprise świadczonych przez pamięć masową, która może się składać z wielu urządzeń rozproszonych w różnych lokalizacjach. SANsymphony umożliwia łączenie ich pojemności (wirtualizację) i zarządzanie nimi w sposób centralny i jednolity. Zapewnia także wysoką dostępność, asynchroniczną replikację przy odtwarzaniu po awarii oraz ciągłą ochronę danych.
NetApp Ontap Select
Rozwiązanie jest programowo definiowaną wersją platformy NetApp Ontap. Ontap Select można wdrażać na standardowym sprzęcie, przekształcając posiadane zasoby pamięciowe serwerów w platformę o funkcjonalności podobnej do tej, jaką zapewniają specjalistyczne macierze NetApp Ontap. Integruje się ona z oprogramowaniem do zarządzania w chmurze, takim jak OpenStack i VMware vSphere, i może być przeznaczona do wielu zastosowań – od rozwoju oprogramowania i testowania aplikacji po budowę centrum danych bazującego na pojedynczym serwerze.
VMware vSAN
VMware vSAN udostępnia programowo definiowaną technologię pamięci masowej przeznaczoną dla zwirtualizowanych i chmurowych środowisk VMware. Tworzy w nich pojedynczą pulę pamięci współużytkowaną przez wszystkie hosty w klastrze vSAN. Chociaż vSAN może być zakupiony jako samodzielne rozwiązanie, zwykle jest sprzedawany przez dostawców OEM w ramach gotowych sprzętowych platform Ready Nodes, jako komponent odpowiadający za pamięć masową w infrastrukturze hiperkonwergentnej Dell EMC VxRail lub jako część platformy programowo definiowanego centrum danych VMware.
Za to, co proponują zarówno Cisco, jak i VMware, trzeba sporo zapłacić. Obietnicą tanich sieci SDN kuszą producenci rozwiązań typu white box – przełączników bazujących na standardowych platformach sprzętowych, na których można wdrażać systemy operacyjne od niezależnych dostawców. I jak wykazują badania analityków rynkowych, taka oferta znajduje nabywców. Jednak dla klientów chcących wykorzystać w firmowych środowiskach produkcyjnych SDN jeszcze ważniejszą kwestię od samego rozwiązania stanowi wsparcie techniczne, o które w przypadku white box może być trudno.
Marcel Guzenda podkreśla, że w środowisku enterprise nie ma miejsca na eksperymenty. W przypadku wdrożenia SDN, gdy jest to np. platforma Cisco, producent bierze odpowiedzialność za ewentualne problemy i pomaga w ich rozwiązaniu.
– Gdy natomiast poszczególne elementy składamy z rozwiązań różnych dostawców, zaczyna się przerzucanie odpowiedzialności, mogą być kłopoty na przykład z walidacją – zauważa przedstawiciel integratora.
Połączyć z jednej strony ekonomiczność rozwiązania, z drugiej kwestie wsparcia, a z trzeciej możliwość instalowania jednego systemu operacyjnego dla SDN, wybranego spośród wielu różnych – próbuje Dell EMC. Tom Burns, wiceprezes i szef działu Networking and Solutions w tej firmie, zwraca uwagę, że tradycyjnie wdrażana sieć wymaga firmowych architektur, narzędzi do zarządzania, systemów operacyjnych i specjalizowanych układów scalonych (ASIC). W przypadku oferty Open Networking wykorzystuje się natomiast standardową architekturę i narzędzia do orkiestracji, opcjonalne kontrolery SDN/NVO, dowolny sieciowy system operacyjny oraz zgodny z otwartymi standardami sprzęt.
Przy takim podejściu SDN zapewnia wybór platform programowych, co ma umożliwiać wdrożenia bardziej zgodne z konkretnymi potrzebami. Jeden system może być najbardziej odpowiedni dla centrum danych, inny dla sieci kampusowych, a jeszcze inny ułatwi osiągnięcie największej wydajności sieci.
Według Arkadiusza Możdżenia, CTO i członka zarządu ds. rozwoju w S4E, oferta Dell EMC zyskuje uznanie mniejszych operatorów, którzy chcą otrzymać z jednej strony tanie rozwiązanie, z drugiej – wydajne. Zależy im na tym, by koszty utrzymania sieci w kolejnych latach były jak najniższe. Kupują więc sprzęt ze wsparciem i dokładają do tego wybrany sieciowy system operacyjny, którym potem zajmują się sami. Dlatego uwolnienie sprzętu od oprogramowania wymaga od klientów (albo integratorów, którzy będą chcieli świadczyć usługi zarządzania siecią) większych kwalifikacji.
– Klienci decydujący się na takie rozwiązanie mają swoich inżynierów, którzy potrafią później dostrajać tworzone w modelu SDN środowisko sieciowe. Tak jest w przypadku mniejszych ISP, kupujących dużo sprzętu i chcących robić to jak najtaniej – mówi CTO S4E.
Maciej Kałużyński, prezes zarządu One System
Obecnie największe zainteresowanie naszą ofertą programowo definiowanego centrum danych i sieci wykazują międzynarodowe korporacje, w których decyzje o wyborze rozwiązania podejmowane są przez zagraniczne działy IT. Wśród małych i średnich firm widać zainteresowanie tematem, ale na razie nie przekłada się ono na liczbę finalnych transakcji. Rozwiązania Software Defined, które nie wymagają zakupu zaawansowanego sprzętu i mogą być instalowane na łatwo dostępnych komponentach – zarówno znanych producentów, jak i tańszych dostawców – z założenia powinny być atrakcyjniejsze cenowo od rozwiązań tradycyjnych. Tymczasem w praktyce wielokrotnie przekonaliśmy się, że koszty licencji na przykład na Software Defined Storage przekraczają koszty zakupu klasycznej macierzy dyskowej. Właśnie w tym upatrujemy przyczyny wciąż niewielkiego zainteresowania tą technologią wśród małych i średnich przedsiębiorstw. Rozwiązania Software Defined to niewątpliwie bardzo interesujący kierunek, któremu wnikliwie się przyglądamy, ale obecnie traktujemy go raczej w kategoriach alternatywy dla tradycyjnej oferty niż jako pierwszy rekomendowany wybór.
Marcel Guzenda, Business Solutions Architect, Sevenet
Jest zainteresowanie SDN wśród klientów i mamy już za sobą pierwszą implementację w branży finansowej. Prowadzimy też sporo projektów na poziomie PoC, które mogą się zmienić we wdrożenia. Są dzisiaj trzy drogi do nowej technologii. Po pierwsze, jeśli kończy się cykl życia posiadanej infrastruktury, to zastąpią ją urządzenia sieciowe nowej generacji, które umożliwią budowanie środowiska w inny sposób. Wiele firm, wymieniając infrastrukturę, decyduje się na razie uruchomić ją w sposób tradycyjny, ale w przyszłości może zrobić to po nowemu. Drugie podejście to uruchomienie już dziś części funkcjonalności Software Defined – na przykład siecią zarządza kontroler, ale funkcje bezpieczeństwa są realizowane w sposób tradycyjny. Wreszcie trzeci wariant, dotyczący zupełnie nowych projektów, a nie migracji – to stuprocentowe wejście w SDN.
Kompetencje są istotne także z tego powodu, że SDN pod wieloma względami różni się od podejścia tradycyjnego. Mamy w tym przypadku do czynienia z nowymi protokołami oraz innymi spojrzeniami na architekturę sieci. Potrzeba wiedzy na poziomie inżynierskim, ale też umiejętności wytłumaczenia klientowi nowych rzeczy i pokazania z jednej strony korzyści na poziomie biznesowym, a z drugiej ograniczeń. Jeśli chodzi o wdrożenie, to dużo łatwej jest w przypadku projektu tworzonego od zera (green field).
– Wyzwaniem pozostaje migracja posiadanej sieci z dotychczasowymi regułami polityki, listami dostępu itp. – wszystko trzeba ustawiać na nowo. Ale później, gdy mamy już za sobą wdrożenie, w codziennej administracji zyskujemy dużą oszczędność pracy i czasu – wyjaśnia Marcel Guzenda.
Macierz dyskowa to w sumie mniej lub bardziej standardowy serwer ze zintegrowanym systemem operacyjnym, skonfigurowanym specjalnie do świadczenia usług przechowywania i udostępniania danych. Obecnie można zrezygnować z takiej specjalizowanej platformy sprzętowej i zdać się na oprogramowanie, które w formie programowo definiowanej pamięci masowej (SDS – Software-Defined Storage) będzie można uruchomić na powszechnie dostępnych i kompatybilnych z nim serwerach. W rezultacie uzyskuje się funkcjonalność podobną do tej, jaką zapewnia specjalistyczna platforma sprzętowa. Po stronie plusów należy wymienić większą elastyczność i niższą cenę (choć nie jest to takie pewne), natomiast po stronie wad – konieczność integracji i potencjalnie gorszą optymalizację sprzętową.
Jak zauważa Sławomir Karpiński, prezes Connect Distribution, rozwiązanie wcale nie jest nowe. Zaczęło po prostu funkcjonować pod inną nazwą. Przykładowo oferowane przez warszawskiego dystrybutora oprogramowanie DataCore znajduje się na rynku od 15 lat. Wcześniej było sprzedawane jako wirtualizator pamięci masowej, a dopiero od kilku lat, gdy specjaliści od marketingu spopularyzowali pojęcie Software Defined Storage, Storage, oferowane jest w tej kategorii.
– Bez względu na terminologię chodzi o oprogramowanie, którego zadaniem jest przedefiniowanie zwykłego serwera z dyskami w celu uzyskania elastycznego, konfigurowalnego, wysokofunkcjonalnego urządzenia pamięci masowej – wyjaśnia Sławomir Karpiński.
Czy rzeczywiście SDS to rozwiązanie przyszłościowe, elastyczne i tańsze? W teorii tak być powinno. Przyszłościowe dlatego, że według założeń za wydajność i skalowalność rozwiązania odpowiada oprogramowanie, które decyduje o jego parametrach. Można w nim błyskawicznie wprowadzać nowe algorytmy i technologie, takie jak modne dziś uczenie maszynowe oraz elementy sztucznej inteligencji.
Powinno być także tańsze (choć z tym obecnie bywa różnie), bo platforma sprzętowa, która ma znacznie większe bariery rozwoju – z uwagi na fizyczne i technologiczne ograniczenia – jest w przypadku SDS mniej istotna. Oprogramowanie zwykle wymaga, aby były spełnione pewne warunki dotyczące architektury, natomiast kwestia tego, kto jest producentem danego komponentu, schodzi na dalszy plan.
– A jeżeli dopuszczamy sprzęt różnych producentów, to zwiększa się konkurencja. Co za tym idzie spadają ceny komponentów, a w konsekwencji całego rozwiązania – podkreśla Sławomir Karpiński.
Tradycyjne rozwiązania z zakresu pamięci masowej mają architekturę, której geneza sięga lat 70. Od tego czasu zwiększyła się pojemność i szybkość dysków, pojawiły się dyski flash, przyspieszyły procesory, ale w większości macierzy stosuje się wciąż tę samą architekturę bazującą na dwóch kontrolerach, pamięci cache oraz wykorzystujących strukturę RAID zabezpieczeniach przed utratą danych wskutek awarii. Dodatkowo macierze różnych producentów niechętnie się ze sobą komunikują, tworząc system silosowy, który z natury rzeczy jest drogi w zakupie, nie wspominając o braku elastyczności. Dlatego w porównaniu z tradycyjnym podejściem SDS daje nadzieję na niższe koszty, większą elastyczność, skalowalność, a przed wszystkim otwartość na przyszłe innowacje.
Sławomir Karpiński, prezes zarządu Connect Distribution
Klienci i integratorzy zainteresowani nowatorskimi rozwiązaniami, do jakich zalicza się SDS, są w zdecydowanej mniejszości. Mam jednak wrażenie, że w obu grupach jest coraz większa otwartość na takie tematy. Standardem wciąż pozostaje podejście oportunistyczne, w którym preferuje się zakup tradycyjnej macierzy jako bezpiecznej, obarczonej mniejszym ryzykiem od rozwiązań innowacyjnych, ale mniej popularnych. Wynika to też z polityki marketingowej wiodących dostawców, którzy chcą promować swoje tradycyjne produkty tak długo, jak rynek będzie w stanie je zaakceptować. Zwłaszcza gdy dany dostawca nie ma w swojej ofercie SDS albo rozwiązania tradycyjne generują wyższą marżę.
Arkadiusz Możdżeń, CTO i członek zarządu ds. rozwoju S4E
Firmy interesują się programowalnymi sieciami, kiedy na przykład chcą ograniczyć koszty połączeń, które wcześniej wykorzystywały MPLS. Dzięki programowalności SD-WAN jesteśmy w stanie zapewnić podobne parametry komunikacji (niezawodność, opóźnienia itp.) przy wykorzystaniu internetu. I to się udaje. Z kolei w przypadku SDS atrakcyjna dla użytkowników końcowych jest możliwość stworzenia takiego środowiska pamięci masowej, w którym da się podłączać platformy sprzętowe od różnych producentów i wszystkim centralnie zarządzać. Nie można jednak mówić jeszcze o wyraźnym dążeniu partnerów i ich klientów do wdrażania rozwiązań, które działają w zupełnie nowy sposób. Jeśli tradycyjny model działa, sporo się w niego do tej pory zainwestowało (chociażby w certyfikaty) i wszyscy na nim zarabiają, to nikt szczególnie nie pali się do zmiany.
Artykuł Czy oprogramowanie zdobędzie centrum danych? pochodzi z serwisu CRN.
]]>