Artykuł Programy partnerskie do usług pochodzi z serwisu CRN.
]]>Po pierwsze, zmieniają strukturę przepływów finansowych. Po drugie, zmuszają do tego, żeby od nowa uczyć się rozmawiania się z klientem. Szefowi działu IT lub właścicielowi takiej czy innej organizacji należy wytłumaczyć, że wcześniej w zasadzie niepotrzebnie inwestował środki finansowe w serwery czy macierze dyskowe. Tym bardziej, że nie wykorzystywał nawet połowy ich potencjału. W epoce ekonomii współdzielenia ma być inaczej – taniej, łatwiej i szybciej. Usługodawcy zachęcają, aby w czasie negocjacji posługiwać się argumentem dotyczącym samochodów i hulajnóg wypożyczanych na minuty lub podać przykład Netflixa. To może jednak nie przekonać rozmówcy.
Paweł Miszkiewicz, Channel Manager w HP, przyznaje, że to właśnie czas, jaki należy poświęcić na rozmowę z klientem zniechęca resellerów do modelu „as a ser-vice”. Sprzedaż usług wymaga jednak dużo więcej zaangażowania niż przesuwanie pudełek.
– Często obserwujemy także opór po stronie działów zakupów. Jeśli mamy ofertę A i B, są one łatwe do porównania. Natomiast gdy pojawia się zupełnie inna propozycja, pojawiają się wątpliwości, do czego można ją porównać. Warto podkreślić, że obecnie organizacje na całym świecie zmieniają swoje myślenie o IT, coraz częściej rozważając model „as a service”. Świat idzie w stronę modeli usługowych, czego przykładem jesteśmy my sami, jako konsumenci korzystający z różnego rodzaju platform – podkreśla Marek Hojda.
programów partnerskich oczami integratora
Źródło: Cloudica
(Nie)przejrzyste programy
Wszystkie prognozy wskazują na to, że popularność modelu „as a service” w branży nowych technologii będzie w najbliższych latach wzrastać. Jednakże dostawcy usług nie zamierzają czekać z założonymi rękami na rozwój wypadków i podejmują inicjatywy, które mają na celu zmotywowanie resellerów do większej aktywności. Widać to chociażby na przykładzie programów partnerskich, w których pojawia się coraz więcej odpowiednich zapisów. Niestety, problem polega na tym, że lektura tego typu dokumentów często przyprawia resellerów o zawrót głowy. Choć dostawcy zgodnie przyznają, że program partnerski powinien być przejrzysty, często robią wiele, aby było dokładnie na odwrót. Hanna Fernandez, Partner Program Manager w OVHcloud, uważa, że resellerów skutecznie odstraszają: skomplikowane zasady i biurokracja, przeciągające się procedury i negocjacje prawne, trudności z płatnościami, zbyt niskie marże w porównaniu do wysiłku włożonego w obsługę programu czy brak API do rozliczeń.
Wyeliminowanie wymienionych niedociągnięć nie jest wcale łatwe. Chyba największym wyzwaniem, z jakim muszą się zmierzyć twórcy programów partnerskich, jest nadążanie za zmianami zachodzącymi w świecie IT. Specjaliści od marketingu i sprzedaży często mają odmienne koncepcje formułowania przekazu do partnerów. Krytyce podlega nierzadko próba dostosowania programów do strategii hybrydowej. Może to prowadzić do tego, że programy partnerskie stają się coraz bardziej złożone i przeładowane. Przeciwnicy tej metody nawołują do tworzenia nowych programów, koncentrujących się raczej na wynikach biznesowych niż promowaniu takiej czy innej technologii. Przykładowo, Adam Kostecki, CEO Cloudica, widzi miejsce na rynku dla programów partnerskich o bardziej spłaszczonej strukturze, nie opierającej się o portfolio jednego producenta czy dystrybutora, ale kilku równorzędnych – na zasadzie „peer-to-peer”- wspierających się wzajemnie w sprzedaży komplementarnych wobec siebie usług czy produktów.
Dheeraj Pandey, były CEO Nutanixa, wyznał w jednym z wywiadów, że jednym z jego większych błędów było stworzenie zbyt wielu programów, które w żaden sposób nie były ze sobą powiązane, co przysporzyło sporo kłopotów partnerom tego producenta. Ostatecznie Nutanix uporządkował i połączył programy w jeden dokument. Zapewne dużo racji ma David Friend, CEO Wasabi, wychodzący z założenia, że projektowanie prostego programu partnerskiego jest jak opracowywanie każdego innego produktu – aby był prosty, wymaga od swojego twórcy dużej dyscypliny.
Zdaniem integratora
Pamiętajmy, że zarządzający programami mają zwykle przewagę wiedzy nad poszczególnymi partnerami. Ich perspektywa jest „perspektywą helikoptera”. Widzą cały rynek, mają interakcje ze wszystkimi partnerami, zarządzają wszystkimi transakcjami. Istnieje zatem ryzyko wykorzystania tej wiedzy w sposób niejasny czy nietransparentny. W biznesie nie oznacza to, że partner – nawet o tym wiedząc – wycofa się; raczej spowoduje to, że i on zacznie grę na nierównym boisku. Oznacza to psucie rynku, a to ostatecznie jest porażką wszystkich jego uczestników. Każdy zatem dostawca, ale w szczególności zarządzający programem, powinien mieć to na uwadze i dbać o etykę biznesu, w szczególności programu partnerskiego.
Programy partnerskie w praktyce
HPE jest producentem utożsamianym przede wszystkim z tradycyjnym modelem sprzedaży. Niemniej Antonio Neri, CEO koncernu, od dwóch lat dokłada starań, aby pokazać tę firmę z nieco innej strony. Jeżeli wszystko pójdzie zgodnie z planem już w przyszłym roku cała oferta HPE będzie dostępna w modelu „as a service”. Koncern już wprowadził do programu partnerskiego pewne elementy, które pozwalają szybciej dołączyć do niego partnerom zajmującym się wyłącznie sprzedażą usług.
Tak czy inaczej, najlepszym magnesem dla resellerów jest atrakcyjny system prowizji. Jednak nawet najbardziej hojny program partnerski nie przyniesie efektów, jeśli sprzedawana usługa nie będzie odpowiadać na potrzeby klienta. Adam Wójcicki, Business Development Manager – CSP/Alliances w Dell Technologies, zwraca uwagę na problem, o którym mówi się zdecydowanie mniej, aniżeli o prowizjach czy szkoleniach.
–Inwestycje we własne centra danych oraz zasoby techniczne, umożliwiające w reżimie 24/7 zarządzanie i utrzymywanie środowiska klientów, mogą być dla części resellerów barierą nie do przejścia. Tego typu inwestycje nie do końca mają sens, bo widać wysoką konsolidację powierzchni wśród kilku kluczowych centrów danych – mówi Adam Wójcicki.
Nauka na pierwszym miejscu
Model usługowy w Polsce dopiero raczkuje i trudno się spodziewać się, że przyszły rok przyniesie spektakularny boom na rozwiązania w modelu „as-a-service”. To akurat dobra wiadomość dla integratorów, którzy dopiero rozważają wejście w ten obszar rynku. Nie trzeba działać w pośpiechu, lecz na spokojnie przyjrzeć się propozycjom współpracy oferowanym przez dostawców. Dopiero na podstawie dokładnej analizy uzyskać można sensowną odpowiedź na pytanie: czy gra jest warta świeczki? Przy czym wejście na nowe pole gry wymaga przyswojenia jej reguł. A z tym akurat nie powinno być problemów, bowiem dostawcy zapewniają szeroką gamę szkoleń adresowanych zarówno do handlowców, jak i inżynierów. Wiedza jest zatem na wyciągnięcie ręki, trzeba tylko wykonać pierwszy krok.
Zdaniem specjalisty
Marża to jeden z podstawowych benefitów niezależnie od modelu partnerskiego. W przypadku sprzedaży usług nie jest to jednak element, który pozwala na efektywny rozwój współpracy. Model usługowy to łatwa i szybko dostępna usługa dla klientów końcowych. Realizacja takiego scenariusza wymaga kompleksowego podejścia do współpracy z partnerami. Z jednej strony będzie to stałe wsparcie technologiczne, pomoc przy budowaniu konkretnych usług, obsługa serwisowa, z drugiej zapewnienie przewidywalności dotyczącej kosztów pozyskiwania konkretnych rozwiązań Przewidywalność taka często realizowana jest poprzez umowy ramowe dostępne dla naszych partnerów w ramach modelu biznesowego Cloud Service Provider.
Program partnerski powinien być sformułowany w sposób jasny i niepozostawiający wątpliwości co do jego zapisów. Resellerzy powinni znać wszystkie zasady, korzyści, jakie mogą osiągnąć, ale też stawiane przed nimi wymagania. Do sprzedaży usług z pewnością zachęca dobra marża, ale są też inne czynniki, takie jak sprawdzone na rynku rozwiązania, narzędzia raportujące i dostęp do dodatkowej wiedzy. Poza tym działa tutaj prawo popytu i podaży. Rynek zarządzanych usług cyberbezpieczeństwa rośnie i wygrają na tym ci integratorzy, którzy włączą je do swojej oferty. Do najczęściej sprzedawanych przez naszych partnerów usług należą: audyt, kontrola systemów, zarządzany UTM i monitorowanie bezpieczeństwa.
Zachęcający program partnerski cechują proste zasady, niski próg wejścia, przejrzysta umowa oraz zrozumiały model biznesowy, odpowiadający na pytanie „dlaczego z nami”. Pomocne są ponadto efektywnie działające procedury, a także czytelny portal partnerski i przyjazne narzędzia współpracy. Do sprzedaży usług zachęcą stabilne i jasne zasady promocji partnerów na kolejne poziomy partnerstwa. Gwarantem powodzenia jest także czynnik ludzki – partner nie może być zostawiony samemu sobie, a dwustronna komunikacja potrzeb wiele ułatwi.
Dobry program partnerski powinien dawać realną szansę na atrakcyjny zarobek oraz wspierać sprzedaż usług lub produktów, które są w polu zainteresowania klienta końcowego. W przypadku usług chmurowych kluczowym warunkiem do zaangażowania się partnerów w ich sprzedaż są szkolenia. Muszą one obejmować aspekty technologiczne, ponieważ za zwiększającym się zainteresowaniem ze strony klientów usługami chmurowymi nie nadążają kompetencje wewnętrznych zespołów IT. Potrzebują one wsparcia w zakresie projektowania, optymalizacji, wdrożenia oraz utrzymania chmury. Szkolenia sprzedażowe pomagają nie tylko dotrzeć do klienta, ale też poprawnie skalkulować wszystkie benefity wynikające z korzystania z usług chmurowych.
Artykuł Programy partnerskie do usług pochodzi z serwisu CRN.
]]>Artykuł Serwerownia kontra chmura: pojedynek wciąż wyrównany pochodzi z serwisu CRN.
]]>Co prawda, może się zdarzyć, że w praktyce taki model wyjdzie trochę drożej niż firmowe centrum danych. W końcu po drugiej stronie też muszą być wykorzystywane jakieś urządzenia. Oczywiście dostawca usług chmurowych jest na uprzywilejowanej pozycji, jeśli chodzi o zakupy sprzętu (może wynegocjować lepsze ceny), natomiast konieczne jest zapewnienie przestrzeni w centrum danych, opłacenie zasilania, klimatyzacji oraz wykwalifikowanego personelu technicznego. Ale w tym właśnie tkwi różnica między infrastrukturą funkcjonującą on-site (w siedzibie klienta) i off-site (w firmie trzeciej). Gdyby klient sam musiał zainwestować we wszystkie zabezpieczenia oraz opłacić dobrych specjalistów, całe przedsięwzięcie kosztowałoby więcej. Zwłaszcza, że dzięki chmurze nie ma konieczności dokonywania jednorazowej inwestycji.
Czy to oznacza, że wszystkich klientów należy nakłaniać do natychmiastowej rezygnacji z własnej infrastruktury? Na pewno nie. Zresztą u wielu z nich jest to niemożliwe lub niewskazane z powodu regulacji prawnych albo zbyt dużej ilości danych, do których potrzebny jest stały i szybki dostęp, np. dużych plików multimedialnych. Takim klientom warto zaproponować jeden z ogromnej liczby dostępnych na rynku serwerów NAS. Praktycznie w każdym przypadku spełni on swoją rolę. Nie tylko przechowa setki terabajtów danych. Sprzęt dwóch liderów rynku – firm QNAP i Synology – wyposażony jest w wirtualizator, dzięki któremu użytkownicy mogą korzystać nawet z kilkunastu wirtualnych maszyn zawierających serwerowy system operacyjny i aplikacje. To rozwiązanie świetnie sprawdzi się także w firmach, w których z centralnie zgromadzonych zasobów korzysta ponad 100 użytkowników.
Dostawcy tradycyjnych serwerów nie muszą jednak czuć się zagrożeni. Według IDC w II kwartale bieżącego roku wartość światowego rynku serwerów zwiększyła się o rekordowe 38,6 proc. Ilościowy wzrost wyniósł 20,7 proc., z czego wniosek, że najlepiej sprzedawały się duże maszyny, prawdopodobnie zamawiane przez operatorów usług chmurowych do ich centrów danych.
Nastąpiło też duże przetasowanie wśród dostawców. W pierwszej połowie 2018 r. na pozycję lidera wybił się Dell EMC, chociaż sprzedaż tego producenta zwiększyła się nieznacznie. Przyczyna zmiany na pozycji lidera to duży spadek sprzedaży sprzętu HPE. Na dalszych miejscach, ze zbliżonymi udziałami, znalazły się: IBM, Lenovo i Cisco. W danych prezentowanych przez IDC widać ogromny wzrost udziału white boxów. Zdaniem analityków to efekt zmiany klasyfikacji tego typu urządzeń, więc rzeczywisty wzrost, mimo że wciąż notowany, nie jest aż tak duży.
Zdalny dostęp to oszczędność czasu
Świadczone zdalnie usługi wsparcia znajdują się w ofercie firm IT od wielu lat, a do korzystania z nich wystarczy dobre połączenie z Internetem. Także producenci zapewniają sobie możliwość zdalnego podłączenia się przez VPN do urządzeń infrastruktury centrum danych (serwerów, macierzy dyskowych, sprzętu sieciowego), aby weryfikować poprawność ich pracy, w ramach podpisanej z klientem umowy SLA.
Na rynku jest wiele narzędzi, które gwarantują zdalne połączenie się z komputerem. Część jest bezpłatnych, czasami pod warunkiem użytkowania wyłącznie do celów prywatnych (na rozwiązanie do działań komercyjnych trzeba wykupić stosowną licencję). I, jak nietrudno się domyślić, to bardzo częste pole do nadużyć.
– Klienci starają się zaoszczędzić na licencjach i szukają możliwości obejścia modelu licencjonowania. Efektem tego jest zaskoczenie, gdy usługa zostaje zablokowana, a producent sugeruje przejście na wersję zapewniającą większe uprawnienia. Na szczęście większość klientów, gdy zauważy, że nie uda się nic wykombinować, kupuje licencje odpowiednie do swoich potrzeb. Niestety zdarzają się też przedsiębiorcy, którzy stawiają sprawę na ostrzu noża i straszą prawnikami, zupełnie bezpodstawnie – mówi Rafał Goszyk, Sales Manager w Prianto.
Bezpłatne usługi zdalnego dostępu, oprócz tego, że najczęściej nie są dopuszczone do komercyjnego użycia, mają bardzo ograniczone funkcje. Limitowana jest liczba komputerów, do których można uzyskać dostęp, brakuje zaawansowanych narzędzi gwarantujących bezpieczeństwo (jest tylko ochrona dostępu za pomocą hasła), często nie jest także zapewniony transfer plików do oddalonego komputera. Oczywistym jest też, że nowe funkcje trafiają najpierw do płatnych usług. Jedną z nich, która ostatnio cieszy się coraz większą popularnością, jest uzyskanie zdalnego dostępu do telefonów i tabletów, bo obowiązek zarządzania nimi coraz częściej przechodzi z działów administracyjnych do działów IT.
Adam Kotecki, CEO, Cloudica
Małe i średnie firmy, jako nabywców rozwiązań IT, można podzielić na dwie grupy. Do pierwszej należą przedsiębiorstwa, które funkcjonują na rynku już od dłuższego czasu i w zakresie IT praktycznie się nie rozwijają. W nich komputer służy do pisania dokumentów i korzystania z Internetu, a brakuje świadomości związanej z bezpieczeństwem danych i ryzykiem wystąpienia awarii sprzętu lub problemów z oprogramowaniem. Druga grupa to firmy „świeższe” i startupy, w których z reguły dominują młodzi pracownicy, a zarząd widzi konkretne korzyści płynące z rozwiązań IT i umie przekształcić je w przewagę konkurencyjną swojego przedsiębiorstwa. A prawda już od paru lat jest oczywista – bez IT trudno będzie wygrać praktycznie w każdej dziedzinie biznesu. Ostatnio przekonują się o tym chociażby restauratorzy, hotelarze i taksówkarze.
Chmura ułatwia rozwój
Już od kilku lat analitycy uważają za oczywistych odbiorców usług chmurowych małe i średnie firmy. Często są po prostu zbyt małe, aby budować własną rozbudowaną infrastrukturę IT, a na zatrudnienie wykwalifikowanych informatyków, którzy profesjonalnie zabezpieczą całe środowisko, ich nie stać. Zresztą tacy eksperci nie mieliby szansy wykazania się, gdyż systemy IT w mniejszych przedsiębiorstwach nie są rozbudowane i nie wymagają ciągłego nadzoru oraz analiz występującego ryzyka. Z drugiej strony małe firmy mogą paść ofiarą takich samych ataków jak duże. Złośliwy kod ransomware czy cryptojacking nie będzie „zwracał uwagi” na wielkość przedsiębiorstwa, po prostu zainfekuje podatny komputer.
Bezpieczeństwo (a właściwie jego brak) długo było wskazywane jako główna wada chmury. Tymczasem dziś świadomi przedsiębiorcy coraz częściej podnoszą tę kwestię jako argument „za”. Ale korzyści jest znacznie więcej. Należy do nich również zwiększona gwarancja ciągłości działania firmy, a przecież nawet najmniejsze muszą dbać o niezakłóconą obsługę klientów.
– Kiedyś jeden z naszych klientów, którego infrastrukturę pocztową przenieśliśmy do chmury, z ulgą zwierzył się nam, że wreszcie może spokojnie pracować. Gdy miał serwery pocztowe zainstalowane w swojej serwerowni, usługa była niedostępna przynajmniej raz w tygodniu, a informatycy często przeprowadzali naprawę dopiero na drugi dzień po wystąpieniu awarii. Obecnie jest to nie do zaakceptowania – podkreśla Adam Kotecki, CEO w firmie Cloudica, która świadczy usługi wsparcia IT dla przedsiębiorstw oraz aktywnie promuje rozwiązania chmurowe.
Problemem jedynie może być to, że szefowie firm najczęściej nie mają większej wiedzy dotyczącej IT niż ta, która wynika z codziennego użytkowania komputera. Dla nich zaufanym doradcą będzie głównie informatyk, jeśli go zatrudniają. A on będzie się bronił przed migracją wybranych usług do chmury z obawy o własne stanowisko. Dlatego, idąc do klienta z ofertą cloud computingu należy unikać podawania oczywistego argumentu, że przeniesienie usług do chmury wyeliminuje konieczność zatrudniania ekspertów. Wręcz przeciwnie, od samego początku należy podkreślać jak ważnym ogniwem we współpracy stanie się zatrudniony w firmie informatyk, bo to on jako osoba merytoryczna będzie pierwszym punktem kontaktu i to on będzie w stanie skutecznie wyegzekwować właściwy poziom świadczenia usług przez firmę trzecią. Jednocześnie zyska więcej czasu na pomoc zarządowi w rozwijaniu przedsiębiorstwa, dzięki czemu jego pozycja w przedsiębiorstwie wzrośnie, być może wręcz zasłuży na awans i podwyżkę. Uprawniona jest tu analogia do świata medycyny – usługodawcy mają lekarzy specjalistów, podczas gdy zatrudniony lokalnie informatyk będzie firmowym lekarzem pierwszego kontaktu.
Rafał Goszyk, Sales Manager, Prianto
Płatne rozwiązania zapewniające zdalny dostęp mają szereg funkcji, które „domowym” informatykom są po prostu niepotrzebne. Jednym z przykładów jest możliwość dostania się z uprawnieniami administratora do komputera, na którym zalogowany jest zwykły użytkownik, bez takich praw. Korporacyjne rozwiązania z reguły wyposażone są także w prosty system zarządzania zadaniami podczas świadczenia usług wsparcia, dzięki czemu nie potrzeba kolejnego narzędzia do obsługi zgłoszeń użytkowników.
Zdalne wsparcie od partnerów
Integratorzy powinni być zainteresowani świadczeniem usług zdalnego wsparcia, ponieważ są gwarancją stałego zysku. Każdy dostawca umożliwiającego to oprogramowania i usług zapewnia partnerom odpowiednie licencje właśnie do tego celu. Powodzeniu tego typu biznesu sprzyja ograniczona liczba informatyków na rynku pracy oraz wysokie koszty ich zatrudnienia. Dlatego firmy IT powinny coraz poważniej rozważać taką formę świadczenia usług.
– Nowoczesne narzędzia oraz chmura zdecydowanie ułatwiły świadczenie usług wsparcia oraz zwiększyły ich efektywność – mówi Adam Kotecki. – Jeżeli klient ma całe środowisko w chmurze, sytuacja dla nas jest optymalna, bo mamy do jego zasobów łatwy i bezpieczny dostęp. W innych sytuacjach korzystamy z VPN-ów i narzędzi do zdalnego dostępu do komputerów. Postawiliśmy sobie za cel, aby jak najwięcej prac administracyjnych robić zdalnie. Klienci nie mają z tym problemów. Zwycięża argument, że dzięki temu usługa jest tańsza i na życzenie świadczona przez całą dobę. W takim modelu obecność w siedzibie firmy administratora byłaby albo bardzo droga, albo kłopotliwa ze względów logistycznych.
Prezes Cloudica podkreśla, że w przypadku niektórych klientów zatrudnieni przez usługodawcę informatycy pełnią dyżury administracyjne. Wszyscy pracownicy przedsiębiorstwa wiedzą, że w podanych godzinach do dyspozycji jest informatyk i mogą zwrócić się do niego z dowolną prośbą lub pytaniem związanym z IT. Specjalista wykonuje też prace planowe, takie jak konserwacja sprzętu, wymiana tonerów, klawiatur itp. Dzięki temu w małych firmach nie trzeba zatrudniać informatyków na stałe.
Podczas gdy Intel obchodzi 40. rocznicę wyprodukowania pierwszego procesora x86, AMD wydaje się powoli wracać do łask użytkowników. W II kwartale 2018 r. przychody producenta procesorów do komputerów i kart graficznych wzrosły aż o 53 proc. w porównaniu z notowanymi w tym samym okresie roku ubiegłego. U Intela w tym samym czasie wzrost wyniósł tylko 15 proc.
Trzeba jednak przyznać, że AMD znalazło się na uprzywilejowanej pozycji, bowiem procesory graficzne tego dostawcy są bardzo często wykorzystywane do kopania kryptowalut (na tym rynku AMD konkuruje z Nvidią). Jednocześnie nietrudno zauważyć, że coraz więcej producentów pecetów, serwerów oraz NAS-ów wprowadza do oferty modele wyposażone w układy AMD. Intel z kolei wybrał dwie inne nisze: pamięci flash oraz rozwiązania Internetu rzeczy.
Artykuł Serwerownia kontra chmura: pojedynek wciąż wyrównany pochodzi z serwisu CRN.
]]>Artykuł Kasowanie danych: czas na flash pochodzi z serwisu CRN.
]]>– To rosnący biznes. Ilość przechowywanych danych rośnie w tak szybkim tempie, że organizacjom cyklicznie potrzeba nośników o większej pojemności i to się jeszcze długo nie zmieni. Moim zdaniem przenoszenie danych do chmury nie sprawi, że zmaleje popyt na ich kasowanie – twierdzi Tomasz Filipów, prezes Diskusa.
Obecnie najwięcej usług usuwania danych dotyczy dysków HDD (przez demagnetyzację i/lub fizyczne niszczenie) oraz SSD. Tym, co się zmienia, jest rosnący udział nośników półprzewodnikowych. Stąd specjaliści inwestują w rozwój i badania nad bezpowrotnym kasowaniem danych z nośników typu flash. Z kolei w związku z coraz większą liczbą smartfonów zwiększać się powinna liczba zleceń od użytkowników indywidualnych, którym będzie zależeć na pozbyciu się poufnych informacji czy zdjęć z pamięci telefonu.
Stabilny poziom obrotów nadal powinny zapewniać usługi dotyczące napędów taśmowych, które prawdopodobnie jeszcze długo pozostaną głównym nośnikiem archiwizowanych danych. W tym przypadku zapotrzebowanie na kasowanie danych również rośnie za sprawą cyklu migracji starszych bibliotek na nowe nośniki.
– Na taśmach przechowywane są często na przykład informacje księgowe czy medyczne. Takie podmioty co jakiś czas ze względu na rosnącą liczbę danych migrują na nowsze napędy, więc poszukują kogoś, kto zadba o trwałe usunięcie zapisu na starych nośnikach – wyjaśnia Marek Cybulski, właściciel MC Storage.
Ponadto szereg firm jest zobowiązanych przez przepisy albo wewnętrzne regulacje do tego, by przechowywane przez nich cyfrowe zasoby były usuwane, co stanowi kolejny stały czynnik rozwoju rynku.
– Zapotrzebowanie na usuwanie zapisu z nośników będzie obejmować kolejne urządzenia. W przyszłości można się spodziewać popytu na kasowanie danych z wszelkich urządzeń zawierających pamięci masowe, w których przechowywane są dane – uważa Iwona Pietras, prezes MiP Data & Forensic.
Biznes razem z partnerami
Specjalistyczne firmy zajmujące się usuwaniem danych stworzyły sieci partnerskie, które umożliwiają dotarcie do szerszej grupy klientów. Partnerami są również – obok firm serwisowych – firmy z kanału sprzedaży IT. Odgrywają one istotną rolę, zwłaszcza pośrednicząc między klientem a profesjonalistą od niszczenia danych.
– Około 90 proc. przychodów z usług demagnetyzacji generujemy jako podwykonawcy integratorów IT. Partnerzy zlecają nam demagnetyzację, często także fizyczne niszczenie nośników swoich klientów. Otrzymują wówczas prowizję, ustalaną na indywidualnych zasadach – mówi Tomasz Filipów.
Najczęściej zlecenia na usługi bezpowrotnego usuwania danych i niszczenia nośników przychodzą z banków, firm ubezpieczeniowych, telekomunikacyjnych, agencji marketingowych, z sektora medycznego i międzynarodowych korporacji działających w Polsce, jak również przedsiębiorstw, które mają własne centra danych. Bez kasowania informacji nie obejdzie się też administracja, w tym różne urzędy i izby celne. Generalnie najczęściej klientami są duże podmioty, mające sporą liczbę urządzeń i nośników. Cyklicznie są one wymieniane na nowe, a stare dyski lub taśmy (jest ich dużo w przedsiębiorstwach, które archiwizują dane na dużą skalę, np. w służbie zdrowia) trzeba oczyścić z zapisu lub zutylizować.
Ponadto niektóre podmioty, zwłaszcza przechowujące dużą ilość danych osobowych i innych poufnych informacji, jak np. banki, mają procedury bezpieczeństwa niejako wymuszające usuwanie danych. Zatem firmy projektowe obsługujące wszystkie tego rodzaju podmioty mogą najczęściej liczyć na dodatkowe przychody ze współpracy z firmami zajmującymi się niszczeniem cyfrowych zapisów oraz nośników. Zleceń nie powinno zabraknąć ze strony centrów danych, świadczących usługi hostingu, które muszą zapewnić zapomnienie danych i zadbać o ich zniszczenie. Przy czym zdaniem specjalistów trend polegający na migracji do chmury nie zmieni zapotrzebowania na usuwanie danych, ponieważ firmy i instytucje nadal będą przechowywać poufne informacje w modelu on-premises.
Partnerzy mogą również zajmować się wypożyczaniem i sprzedażą demagnetyzerów oraz niszczarek dysków. Jednak według profesjonalistów nie jest to znacząca część kanału partnerskiego. Jedna z dużych firm sprzedaje na rynku krajowym rocznie około 40 demagnetyzerów. Częściej niż na zakup klienci decydują się na wynajem urządzeń typu degausser.
Warto podkreślić, że samodzielne świadczenie usług demagnetyzacji i niszczenia nośników przez integratorów to bardzo rzadka sytuacja. Wynika to stąd, że klienci, zwłaszcza duże firmy, wymagają usunięcia danych z zastosowaniem certyfikowanych procesów (np. standardu ADISA i in.). Firmy projektowe musiałyby więc dysponować własnym certyfikowanym sprzętem lub oprogramowaniem albo uzyskać certyfikację od odpowiednich organizacji i zatrudnić fachowców. Tymczasem taka inwestycja niekoniecznie się zwróci, bo kasowanie danych może być co najwyżej dodatkowym zajęciem dla przedsiębiorstw z kanału sprzedaży IT. Można wprawdzie próbować „czyścić” nośniki swoimi metodami, na własną odpowiedzialność, o ile klientowi to odpowiada, ale – jak zapewnia Adam Kostecki z Ontrack – duże firmy zawsze pytają o certyfikaty niezależnych organizacji.
Ponadto obok certyfikatów wydanych dla konkretnego rozwiązania, dla klientów duże znaczenie ma gama dostępnych metod i algorytmów kasowania danych. Jeżeli dana organizacja ma w wewnętrznych regulacjach zdefiniowany algorytm, według którego musi przeprowadzić niszczenie danych (np. DoD 5220.22-M), jest to kluczowe kryterium wyboru narzędzia. Stosowanie certyfikowanych rozwiązań dla wielu przedsiębiorstw stanowi gwarancję skuteczności procesu i umożliwia jego udokumentowanie zgodnie z wymaganą procedurą i regulacjami.
Certyfikowane usługi zabezpieczają klientów, bo – jak zauważano – system jest nie do końca szczelny. Mianowicie proces utylizacji elektroodpadów, co przyznają firmy z tej branży, nie jest obecnie odpowiednio nadzorowany – część elektroniki trafia po prostu na złom, a nie do specjalistycznych zakładów przetwarzania. Ponadto nowe przepisy pozwalają na ponowne wprowadzenie sprzętu z elektroodpadów na rynek (po odnowieniu), więc przedsiębiorca de facto nie zawsze wie, w czyje ręce trafią zużyte dyski i znajdujące się na nich dane.
Do świadczenia usług kasowania danych na większą skalę niezbędne są również inwestycje w mobilne laboratoria (czyli odpowiednio przystosowane i wyposażone pojazdy), umożliwiające sprawną demagnetyzację oraz przemiał wielu nośników. Wynika to stąd, że w wielu firmach danych nie wolno wynosić poza ich siedzibę. Trzeba więc pojechać do klienta i kasować lub utylizować nośniki na miejscu.
Zdaniem integratora
Karol Krajewski, Senior Account Manager, Statim Computer
Obsługujemy firmy różnej wielkości z różnych branż. Działamy jako partner specjalisty od usuwania danych i niszczenia nośników, pośrednicząc między nim a naszymi klientami. Otrzymujemy z tego tytułu prowizję. Zainteresowanie takimi usługami występuje praktycznie w każdym przedsiębiorstwie. W tym roku otrzymujemy szacunkowo o kilkanaście procent więcej zleceń niż rok wcześniej. W sumie rocznie realizujemy do kilkudziesięciu takich projektów, a sześciu naszych dużych klientów przekazuje do „wyczyszczenia” jednorazowo nie mniej niż 100 dysków. Najwięcej zleceń otrzymujemy od firm produkcyjnych. Zwykle dotyczą one nośników HDD z macierzy dyskowych. Taka potrzeba pojawia się u klientów zazwyczaj z dwóch powodów: dane są przenoszone do chmury albo na nośniki o większej pojemności. Raczej nie są to cykliczne usługi – czasem ten sam klient jest zainteresowany usuwaniem danych kilka razy w roku, a czasem co 2–3 lata.
W mojej ocenie rozwój usług chmurowych nie zatrzyma wzrostu rynku kasowania danych. Połowa naszych klientów z różnych powodów nie jest przekonana do chmury, a ci, którzy mają mniej obiekcji, i tak wolą trzymać poufne dane u siebie. Firmy wolą korzystać z zewnętrznych, certyfikowanych usług kasowania danych niż wypożyczać urządzenia do demagnetyzacji czy niszczarki dysków, aby samodzielnie pozbywać się danych. Nie przypominam sobie zapytań o takie wypożyczenia. Co istotne, często przedsiębiorstwa oczekują wykonania usługi na miejscu, w ich siedzibie, stąd dobrze jest, jeśli integrator współpracuje ze specjalistą posiadającym mobilne laboratorium. To znacznie zwiększa jego możliwości na tym rynku.
Zdaniem specjalisty
Tomasz Filipów, prezes Diskus
Spośród firm z kanału sprzedaży najczęściej współpracują z nami integratorzy. Resellerów jest garstka. Nie mamy specjalnych wymagań wobec partnerów IT. Ważne, by był to przedsiębiorca z branży, tj. zajmował się obsługą informatyczną firm czy organizacji. Powinien także mieć zdolność kredytową. Ponieważ rozliczamy się z taką firmą, chcemy mieć pewność, że dysponuje ona odpowiednimi środkami. W mojej ocenie rynek demagnetyzacji i niszczenia nośników będzie rósł jeszcze przez lata. Dlatego zainwestowaliśmy we własną markę demagnetyzerów i profesjonalne laboratorium badawcze. Ten rynek będzie się zmieniał – wzrośnie udział SSD i nośników flash. Spodziewam się także wzrostu liczby usług dla klientów indywidualnych.
Iwona Pietras, prezes MIP Data & Forensic
Siatka naszych certyfikowanych partnerów w całym kraju generuje około 40 proc. usług kasowania danych. Zazwyczaj nasza firma jest wykonawcą dla klienta końcowego, a resellerzy pełnią rolę pośrednika. Ich udział w całym procesie jest jednak bardzo duży – dzięki kontaktom naszych partnerów z usług kasowania danych może korzystać coraz szersze grono zainteresowanych. W I kw. 2018 r. odnotowaliśmy 15-procentowy wzrost zapotrzebowania na usługi kasowania danych w odniesieniu do ub.r. Wartość takich usług będzie rosła z roku na rok, wraz ze zwiększającą się świadomością w tym zakresie. Dużą rolę odgrywają także przepisy prawa, w tym RODO. Z czasem nowe regulacje wymuszą podniesienie poziomu bezpieczeństwa danych, a tym samym ich kasowania z nośników elektronicznych.
Adam Kostecki, dyrektor ds. sprzedaży Ontrack
Obserwujemy stały wzrost potencjału rynku niszczenia danych. Zwiększa się liczba zapytań i wartości poszczególnych zamówień. Tego typu usługami zainteresowane są przede wszystkim firmy mające wewnętrzne procedury dotyczące ostatniego etapu cyklu życia danych w organizacji. Są to podmioty z sektora usług finansowych, medycznych oraz przedsiębiorstwa produkcyjne. Spodziewamy się dalszego ożywienia rynku w związku z regulacjami RODO. Istotna część zamówień pochodzi z naszego programu partnerskiego.
Zdaniem serwisanta
Łukasz Czarnecki, właściciel Pokomp.pl
Zainteresowanie kasowaniem danych jest nikłe. Od kilku miesięcy nie świadczyliśmy takich usług. Są zapytania, ale gdy klienci usłyszą, jaki jest koszt, najczęściej rezygnują i stosują „metodę młotka”, czyli starają się na przykład fizycznie zniszczyć dyski, co oczywiście nie wymaże z nich danych. Z drugiej strony niektóre firmy i instytucje oczekują certyfikatów, które potwierdzą trwałe kasowanie zgodnie z określonymi normami. Nie da się bowiem usunąć danych poprzez jednorazowy format i nadpisanie zerami, bo laboratoria o najwyższej specjalizacji, chociażby z zakresu kryminalistyki czy agencje rządowe, są w stanie odtworzyć tak zamazane dane, jak również informacje z połamanego czy spalonego dysku. Aby na dobre skasować dane, trzeba zastosować trwający wiele godzin cykl, a metodą o niemal 100-procentowej skuteczności będzie połączenie wymazywania programowego i fizycznego.
Artykuł Kasowanie danych: czas na flash pochodzi z serwisu CRN.
]]>Artykuł Trendy w branży odzyskiwania danych pochodzi z serwisu CRN.
]]>
Pamięci masowe zdefiniowane programowo (Software Defined Storage)
W założeniu bezawaryjne, coraz popularniejsze wśród użytkowników biznesowych systemy SDS, okazały się jednak zawodne W 2015 r. Kroll Ontrack odnotował dwukrotny wzrost liczby awarii SDS-ów, skutkujących utratą danych. Takie przypadki wymagały opracowania odpowiednich rozwiązań, ponieważ większość producentów wykorzystuje własne metody przechowywania danych w obrębie SDS.
– Odzyskiwanie tego typu danych jest możliwe, choć bardzo złożone. Warunkiem sukcesu jest przede wszystkim zidentyfikowanie awarii oraz analiza i rozszyfrowanie wzorów przechowywania danych. Potem powinna nastąpić odbudowa systemu plików i opracowanie narzędzi do przywrócenia kluczowych informacji – mówi Adam Kostecki, specjalista do spraw rozwoju i bezpieczeństwa Kroll Ontrack.
Systemy hiperkonwergentne
Hiperkonwergencja to jedna z najważniejszych innowacji, związanych z przechowywaniem danych. Tego typu architektura IT łączy w sobie sprzęt, sieć i zasoby pamięci masowej za pośrednictwem oprogramowania, umożliwiającego uruchomienie na każdym urządzeniu, niezależnie od jego producenta.
Rozwiązania tego typu pojawiły się na rynku pod koniec 2014 r., a w 2015 roku ich popularność rosła. Specjaliści przewidują, że w 2016 r. – pociągnie to za sobą konieczność opracowania metod odzyskiwania danych z systemów hiperkonwergentnych.
Kroll Ontrack zaznacza, że takie procesy może skomplikować wstępna konfiguracja systemu, zwłaszcza nośników HDD, SSD oraz pamięci flash lub w ogóle brak informacji o konfiguracji systemu.
Stacjonarne i zdalne odzyskiwanie
Na branżę odzyskiwania danych silnie wpływają globalne regulacje, dotyczące prywatności i bezpieczeństwa danych. Zmieniające się otoczenie prawne i tendencja do regulowania dostępu do określonych informacji, przekładają się na rosnące zapotrzebowanie na zdalne lub odbywające się wewnątrz organizacji procesy odzyskiwania. Przywracanie informacji bez ich przenoszenia poza firmę to także konieczność w przypadku złożonych i rozbudowanych systemów.
Zarządzanie archiwami danych
Wiele przedsiębiorstw stoi w obliczu obowiązku przechowywania i utrzymania dostępu do archiwalnych danych. Bywa to kosztowne i kłopotliwe. Niewłaściwe prowadzenie archiwów cyfrowych może z kolei skutkować problemami prawnymi. W 2015 r. globalne badanie Kroll Ontracka przeprowadzone wśród ponad 700 administratorów IT ujawniło, że prawie jedna trzecia organizacji nie ma wglądu w informacje przechowywane za pośrednictwem archiwów taśmowych.
Według Kroll Ontracka wśród dobrych praktyk, związanych z zarządzaniem archiwami taśmowymi, najważniejsze jest określenie ich jakości i uzyskanie wiedzy na temat zgromadzonych informacji. Specjaliści firmy zwracają uwagę na zapotrzebowanie nie tylko na rozwiązania katalogujące informacje i ich umiejscowienie, lecz także na konsolidujące katalogi – wiele systemów w jeden, umożliwiający przeszukiwanie zasobów.
Kasowanie i weryfikacja
W 2015 r. po raz kolejny okazało się, że prywatność i bezpieczeństwo danych to priorytety każdej organizacji. Rosnąca liczba informacji na temat cyberprzestępczości i naruszeń skłaniała przedsiębiorców do wzmacniania procedur bezpieczeństwa.
– Rośnie liczba zapytań ze strony działów IT i producentów napędów, dotyczących weryfikacji skuteczności fabrycznych funkcji usuwania danych. W rezultacie odnotowaliśmy gwałtowny wzrost zapotrzebowania na usługi weryfikacji kasowania danych. Nasi inżynierowie coraz częściej przeprowadzają szczegółową analizę napędów i przygotowują sprawozdania weryfikujące, czy zastosowane metody usuwania informacji są bezpieczne – wyjaśnia Adam Kostecki.
Artykuł Trendy w branży odzyskiwania danych pochodzi z serwisu CRN.
]]>Artykuł Kroll Ontrack: nowy menedżer ds. rozwoju biznesu pochodzi z serwisu CRN.
]]>Adam Kostecki jest absolwentem filozofii na Uniwersytecie Śląskim oraz studiów podyplomowych na Akademii Ekonomicznej w Katowicach (kierunki: Zarządzanie Projektem i Handel Zagraniczny).
Artykuł Kroll Ontrack: nowy menedżer ds. rozwoju biznesu pochodzi z serwisu CRN.
]]>