Artykuł Długa droga do cyfrowej przestrzeni pracy pochodzi z serwisu CRN.
]]>Głównym celem transformacji miejsca pracy jest podniesienie produktywności. Niemniej cyfrowe narzędzia pozwalają też na lepszą kontrolę aktywności pracowników. Stąd rozwiązaniami digital workspace interesują się szczególnie duże podmioty, w przypadku których procesy biznesowe są bardzo rozbudowane. Co ciekawe, dotyczy to również jednostek publicznych, które mają opinię (jak widać nie do końca słuszną) zapóźnionych w cyfryzacji (choć w ich przypadku projekty toczą się wolniej).
W sektorze MŚP, gdzie procesy nie są tak rozbudowane, część przedsiębiorców uważa inwestycje w cyfryzację za zbędny wydatek. Z drugiej strony małe firmy zwykle nie są objęte regulacjami ograniczającymi pewne zmiany czy decyzjami zagranicznych central. Tak czy inaczej, małe i średnie firmy na potrzeby cyfryzacji miejsc pracy często wdrażają systemy bezpieczeństwa i rozwiązania VDI.
– Małe firmy też chcą przechodzić na pracę cyfrową, ponieważ oznacza ona znaczną oszczędność przy jednoczesnym zachowaniu pełnej mobilności. Umożliwia to m.in. szybką rekrutację czasowych pracowników bez zwiększania powierzchni biurowej – mówi Piotr Kawecki, prezes IT Boom.
O ile świadomość konieczności przejścia na digital workspace stanowi największy katalizator wzrostu zapotrzebowania, to głównym hamulcem są koszty.
– W dobie niezakończonej pandemii wiele firm chce podjąć taką inwestycję, ale jest niepewna tego, co będzie za kilka tygodni czy też miesięcy i woli jeszcze wstrzymać się z decyzją – mówi Jakub Gowin, dyrektor sprzedaży w Westcon.
Giganci nie próżnują O dobrych perspektywach rynku digital workspace w długim terminie świadczą działania dużych dostawców, którzy inwestują w rozwiązania zwiększające produktywność, odtwarzając cyfrowo fizyczne środowisko pracy. Temu właśnie służy na przykład poszerzenie funkcjonalności Teams’ów. Z kolei w marcu br. Google ogłosiło nową wersję swojego pakietu Workspace (wcześniej G-Suite). Już sama zmiana nazwy wskazuje, że gigant będzie dążył do zagospodarowania rynku cyfrowej przestrzeni pracy. Inna sprawa, że cyfrowe środowiska pracy największych graczy są w niewielkim stopniu ze sobą kompatybilne. Tym niemniej są to rozwiązania intuicyjne, nie wymagające od użytkowników wiedzy technicznej, jak również zaangażowania ze strony kadry kierowniczej – i takich właśnie rozwiązań oczekują użytkownicy.
Źródło: Sebastian Kisiel, Senior Sales Engineer, Citrix Systems
VDI pierwszą potrzebą
Pierwszym etapem cyfryzacji miejsca pracy bardzo często jest wdrożenie VDI. Od tego wielu klientów zaczyna transformację, aby zapewnić swoim pracownikom nowoczesne środowisko pracy.
– Następnie w ramach przekształceń dodawane są integracje z różnymi systemami i aplikacjami, by umożliwić dostęp do zasobów bezpośrednio z przeglądarki web lub dedykowanego klienta – informuje Sebastian Kisiel, Senior Sales Engineer w Citrix Systems.
Firmy, dzięki wdrożeniu VDI, mogą za jednym zamachem załatwić kilka potrzeb: „spłacić” dług technologiczny (sporo firm od dawna nie aktualizowało sprzętu i software’u, niemało z nich nadal używa Windows 7), jak również przeprowadzić migrację do nowych, bezpieczniejszych środowisk oraz możliwość komfortowej pracy zdalnej. Dotychczasowe podejście, polegające na wykorzystaniu koncentratorów VPN, nie zawsze pozwalało na bezpieczną i wygodną pracę zdalną, a to jest kluczowy element migracji. Wśród innych potrzeb w zakresie cyfrowego miejsca pracy powinno się wymienić komunikację oraz pracę grupową z innymi pracownikami firmy, jak też komunikację z zewnętrznymi podmiotami oraz wideokonferencje i bezpieczeństwo.
Punktem wyjścia do rozwoju digital workspace są także platformy i narzędzia do obsługi wideokonferencji, aczkolwiek firmy na ich bazie szukają wszechstronnych rozwiązań, nie tylko do komunikacji wideo, ale też ułatwiających współdziałanie zarówno między współpracownikami, jak i klientami. Do funkcjonowania rozproszonych zespołów niezbędne stają się platformy i narzędzia umożliwiające cyfrowy obieg dokumentów i udostępnianie plików, jak usługi zarządzania drukiem oparte na chmurze.
Co istotne, o ile na początku pandemii firmom często wystarczały jakiekolwiek narzędzia do zdalnej współpracy, teraz ich wybory są bardziej świadome.
– Obecnie firmy oczekują, że ich spotkania będą spersonalizowane. Inne bowiem potrzeby będzie miał organizator wirtualnego koncertu, inne webinaru, a jeszcze inne gospodarz zebrania rady nadzorczej. Najważniejsze potrzeby wiążą się także z bezpieczeństwem, zarówno tym cyfrowym, jak i sanitarnym – mówi Anna Szymanek-Załęska, Product Sales Specialist w Cisco.
Firmy nie wiedzą, co je czeka
Konieczność pracy w trybie home office zwiększyła liczbę zapytań dotyczących digital workspace, przy czym okazało się, że sporo przedsiębiorstw nie zdawało sobie sprawy, jak głęboką przemianę musi przejść ich firma na tej drodze.
– Transformacja do cyfrowego miejsca pracy wymaga przekształcenia całej firmy, przygotowania i wdrożenia strategii chmurowej, szkoleń. Nie jest to proces, który można przejść szybko – podkreśla Sebastian Kisiel.
Zwłaszcza że niektóre branże podlegają regulacjom, które ograniczają możliwości przejścia na pełną cyfryzację. Przykładem jest zakaz przetwarzania danych w chmurze.
– Najsprawniejsza zmiana zachodzi w spółkach, których biznes opiera się na wymianie informacji, a znacznie bardziej skomplikowana i wielostopniowa w zakładach i fabrykach, gdzie fizyczna obecność pracownika jest wymagana w procesie produkcyjnym – twierdzi Barbara Michalska, Modern Workplace Business Group Director w Microsofcie.
Zdaniem specjalisty
Im większe firmy, tym większe zainteresowanie digital workspace. Bardzo duże zainteresowanie występuje również w sektorze publicznym, ale tutaj inwestycje ciągną się w czasie. Największe potrzeby to możliwość pracy zdalnej i grupowej z dowolnego miejsca, kontakt z innymi pracownikami oraz z firmami zewnętrznymi, e-mail, czat, softphone i wideokonferencja w bardzo dobrej jakości, możliwość szybkiego podłączenia się do systemów firmy i bezpieczeństwo tych wszystkich działań. Klienci są zainteresowani kompleksowymi rozwiązaniami, ich integracją, pełnym wdrożeniem oraz utrzymaniem. Dodatkowo dochodzi tutaj kwestia bezpieczeństwa. Najważniejsze z punktu widzenia integratorów, dostawców oraz dystrybutorów jest uświadamianie klientów o bardzo dużej opłacalności takich inwestycji, pokazanie im pełni możliwości poszczególnych rozwiązań oraz zapewnienie im integracji tych systemów.
W obszarze digital workplace największe zapotrzebowanie obserwujemy na rozwiązania digital workplace management. W warunkach pracy hybrydowej pozwalają one zorganizować pracę i przestrzeń biurową, zarządzać pomieszczeniami i czasem, jak również monitorować zasoby – w tym rezerwacje sal konferencyjnych, biurek czy pomieszczeń. W sytuacji, gdy obecnie wynajmowana powierzchnia biurowa często jest zbyt duża w stosunku do potrzeb, pozwala to zarządom optymalnie wykorzystać zasoby i nie ponosić zbędnych kosztów. Przygotowanie takich rozwiązań należy zacząć od audytu pracy biura. Zajmują się tym specjaliści od organizowania przestrzeni biurowej, z którymi mogą współpracować integratorzy. Klienci poszukują przede wszystkim prostych, intuicyjnych rozwiązań, łatwych w zarządzaniu, niewymagających wiedzy technicznej. Ponadto ważna jest elastyczność oraz bezpieczeństwo.
Te rozwiązania do wideokonferencji, które ograniczają się do podstawowych funkcji, muszą ustąpić miejsca środowiskom tworzącym digital workplace w chmurze. Nadal widać duże zainteresowanie tradycyjnymi rozwiązaniami, ale klienci bardziej wnikliwie analizują ich dodatkowe walory. W tym kontekście ważne są prace zespołu nad wspólnymi projektami, zarządzanie zadaniami, udostępnianie plików, nagrywanie spotkań oraz powracanie do ich odczytu w dowolnym momencie, a to wszystko w ramach jednej bezpiecznej i wydajnej platformy. W kolejnych latach wiele firm będzie się decydować na pracę hybrydową, a jedynie aplikacje, które zapewniają rozszerzone funkcje digital workplace będą w stanie zaspokoić potrzeby świadomych klientów. Wysoka jakość wideo i dźwięku to już atuty niewystarczające.
PC pierwszym celem przekształceń
Przedsiębiorcy nie zawsze rozumieją, że kwestia przekształceń związanych z cyfrowym miejscem pracy dotyczy nie tylko działu IT, ale wymaga także współpracy ze strony innych jednostek przedsiębiorstwa. To komplikuje cały proces i dlatego firmy nierzadko odsuwają w czasie pełną transformację, zmieniając organizację etapami. Dość często pierwszym jest wdrożenie infrastruktury VDI, gdyż komputer wciąż stanowi podstawę cyfrowego miejsca pracy.
– Jednym z kluczowych obszarów, który przechodzi obecnie rewolucję cyfrową u naszych klientów jest HR. Procesy związane z automatyzacją wniosków urlopowych czy rekrutacją i wdrażaniem nowych pracowników do ich obowiązków można z powodzeniem przenieść do świata online – dodaje Piotr Kawecki.
We wszystkich takich czy innych wdrożeniach digital workspace kluczową rolę „zaufanych doradców” pełnią integratorzy. W idealnym scenariuszu proponują klientom rozwiązania szyte na miarę konkretnych potrzeb, co wymaga dysponowania portfolio produktowym kilku różnych marek. Ważnym zadaniem integratorów jest towarzyszenie użytkownikom w całym procesie zakupowym, jak również utrzymanie dobrych relacji już po wdrożeniu.
– Obszar, w jakim ta współpraca jest obecnie najważniejsza, stanowi bezpieczeństwo. Zapewnienie ochrony najważniejszych zasobów w firmie przekłada się na zaufanie do dostawców i technologii – twierdzi Barbara Michalska.
Kolejnym istotnym elementem jest konieczność integracji posiadanego przez firmę sprzętu z nowymi rozwiązaniami.
– Kiedy tylko pojawia się możliwość wdrożenia procesu działającego automatycznie, klienci biznesowi bardzo chętnie korzystają z takiej usługi – mówi Paweł Wośko, Pre Sales & Technical Service Manager w Brotherze.
Uczyć się i oduczać
Digital workspace wymaga konsolidacji z rozmaitymi środowiskami pracy i narzędziami użytkowników (sieciowymi, komunikacyjnymi, aplikacjami). Stąd przewagę konkurencyjną w tym segmencie rynku mają integratorzy o szerokich kompetencjach, obejmujących rozmaite środowiska cyfrowe, jak i wiedzę o potrzebach poszczególnych branż gospodarki.
Co ciekawe, część ekspertów jest zdania, że choć obecnie dominuje sprzedaż gotowych systemów digtial workspace, to w niedalekiej przyszłości nastąpi faza indywidualizacji i ścisłego dopasowania poszczególnych rozwiązań do konkretnych potrzeb użytkowników. Ma pojawić się trend kreowania rozwiązań do realizacji specjalistycznych zadań w działach sprzedaży, finansów i w usługach. Już teraz nie brakuje systemów, które oferują szereg szytych na miarę możliwości poprzez rozbudowane API czy chmurowe narzędzia AI (np. transkrypcja, sterowanie głosem, automatyzacja w oparciu o AI czy też analiza danych).
– Digital workspace wymaga wiedzy interdyscyplinarnej w wielu obszarach, począwszy od technologii sieciowych i komunikacyjnych, poprzez bezpieczeństwo aż do warstwy aplikacyjnej i wykorzystywania API. Dla wielu dostawców takich usług, o ile chcą wykazać wartość dodaną, to wyzwanie, a równocześnie szansa na rozwój kompetencji, przebudowę swojego biznesu, wyróżnienie się spośród konkurencji i w efekcie sukces – podsumowuje Łukasz Kulig.
Zdaniem integratora
Wyzwaniem dla integratorów jest zmiana mentalności w biznesie, zwłaszcza tej jego części, która jest przeświadczona o konieczności pozostania przy papierowej dokumentacji. Dlatego edukowanie to jedna z naszych najważniejszych ról. Musimy przekonywać klientów do przechodzenia w jak największym stopniu do świata cyfrowych danych. Z drugiej strony musimy reagować na oczekiwania rynku. Chmura jest za droga, więc obniżenie jej ceny, poprawa parametrów technicznych i odpowiedzi na oczekiwania klientów pozwolą na jej szerszą popularyzację. To, jak szybko będzie do niej migrował biznes, zależy głównie od dostawców. Naszą rolą jest nacisk na przemodelowanie jej dostępności i ułatwienie nam pracy. Jednym z kluczowych obszarów, który przechodzi obecnie rewolucję cyfrową u naszych klientów jest HR. Procesy związane z automatyzacją wniosków urlopowych czy procesami rekrutacji i wdrażania nowych pracowników można znakomicie przenieść do świata online.
Artykuł Długa droga do cyfrowej przestrzeni pracy pochodzi z serwisu CRN.
]]>Artykuł Platformy do zarządzania komputerami i… okularami pochodzi z serwisu CRN.
]]>– W naszej ocenie rozdrobnienie rynku jest pozorne. Wiele skrótów używa się jako synonimy lub po prostu błędnie. Preferujemy proste rozwiązania, dlatego dzielimy systemy na EMM oraz UEM. Te pierwsze skupiają się na ochronie i zarządzaniu urządzeniami mobilnymi, a komputery są w tym przypadku miłym dodatkiem. Na pecetach koncentrują się UEM-y, zaś smartfony i tablety stanowią jedynie dopełnienie. Wiem, że nie jest to podział zgodny ze sztuką, ale pozwala łatwo wytłumaczyć klientom występujące różnice – tłumaczy Piotr Kudrys, Product Owner w firmie Proget.
Wiele wskazuje na to, że rynek systemów do zarządzania urządzeniami końcowymi będzie ewoluował w kierunku unifikacji narzędzi. W zasadzie ten proces już się rozpoczął i niewykluczone, że w niedalekiej przyszłości stosowana obecnie nomenklatura straci na znaczeniu. Nabywcy nie będą się zastanawiać czy potrzebują systemu UEM lub EMM, a może EMM i MDM z odrobiną MAM. Natomiast administratorzy odpowiedzialni za zarządzenie urządzeniami końcowymi skoncentrują się na priorytetowych funkcjach, takich jak obsługa aplikacji, zapewnienie bezpieczeństwa, skalowanie czy dostosowanie platformy do pracy w środowisku chmurowym bądź lokalnym.
UEM na ścieżce wzrostu
Analitycy śledzący rynek systemów do zarządzania urządzeniami końcowymi wysoko oceniają szanse rynkowe platform UEM. Przykładowo Grand View Research przewiduje, że w latach 2020–2027 ten segment rynku będzie rosnąć w tempie 32 proc. rocznie. Według analityków z MarketsandMarkets globalna wartość rynku UEM osiągnie w 2022 r. wartość 7 mld dol.
Potrzeba posiadania ujednoliconego rozwiązania do zarządzania komputerami, tabletami, smartfonami czy inteligentnymi gadżetami jest jednym z podstawowych czynników napędzających popyt na UEM. Zainteresowanie rośnie wraz ze wzrostem liczby urządzeń końcowych używanych przez pracowników. Nie bez znaczenia jest też przejście na hybrydowy tryb pracy. Forrester przewiduje, że do końca bieżącego roku połowa pracowników umysłowych będzie pracować zdalnie.
– Praca zdalna w znaczący sposób wpłynie na popyt na systemy do zarządzania „końcówkami”. Deloitte podaje, że w czasie pandemii Covid-19 liczba „inteligentnych” urządzeń wzrosła ponad dwukrotnie. Należy pamiętać, że w przypadku pracy zdalnej firma musi zabezpieczyć często tysiące biur zdalnych, zamiast jednej stacjonarnej placówki – tłumaczy Bartosz Leoszewski, CEO Famoc.
Ostatnimi czasy widać ruch w interesie, aczkolwiek dostawcy systemów UEM muszą pokonać kilka przeszkód, aby trafić do szerszego grona odbiorców. Do najpoważniejszych barier hamujących sprzedaż należą koszty związane z wdrożeniem platformy oraz brak świadomości na temat korzyści płynących z tego tytułu. Na rodzimym rynku dodatkowym problemem jest tzw. dług technologiczny. Wiele firm korzysta z przestarzałych systemów operacyjnych, a systemy UEM w takim przypadku nie wykorzystują w pełni wszystkich swoich możliwości. Szkoda, bowiem nowoczesne platformy mają dużo do zaoferowania swoim użytkownikom. Przy czym, o ile dostawcy dość swobodnie definiują zadania stawiane przed systemami UEM, o tyle agencje badawcze starają się być w tym przypadku bardziej precyzyjne. Według IDC systemy tej klasy powinny – oprócz obsługi komputerów – realizować podstawowe funkcje dostępne w MDM-ach czy MAM-ach. Do tego dochodzą też usługi bezpieczeństwa w postaci DLP (Data Loss Prevention), ograniczenia kontroli dostępu do plików oraz PIM (Product Information Management).
Choć systemy UEM cały czas ewoluują w kierunku nowych przypadków użycia i zadań związanych z zarządzaniem, wymienione powyżej możliwości to zdaniem IDC jedynie niezbędne minimum. Analitycy zauważają również, że platformy UEM, dzięki szerokiemu wglądowi na punkty końcowe i aktywność użytkowników końcowych, stają się centralnym punktem gromadzenia i analizy danych dotyczących zachowania pracowników, wzorców użytkowania urządzeń, aplikacji i danych, a także analizy wydajności i dostępności oprogramowania. IDC twierdzi, że systemy UEM oferujące szerokie możliwości w zakresie analityki i raportowania zyskają przewagę nad produktami, które nie koncentrują się na tych zagadnieniach.
– Przewrotnie można powiedzieć, że potrzeba kontroli jest jednym z czynników napędzających sprzedaż UEM. Wielu menadżerów chce dokładnie wiedzieć co robią ich pracownicy, kontrolować ich aktywność, obecność, sprawdzać jakie strony odwiedzają, zamiast rozliczać ich z efektów – zauważa Bogdan Lontkowski, dyrektor regionalny na Polskę, Czechy, Słowację i kraje bałtyckie w firmie Ivanti.
Platformy dla mobilnych
Dostawcy systemów do zarządzania flotą przenośnych terminali muszą nadążać za dynamicznymi zmianami zachodzącymi w mobilnym świecie. Jak do tej pory radzą sobie na tym polu całkiem nieźle. Takie produkty jak MDM, EMM czy MAM realizują szeroką gamę funkcji stojących na straży urządzeń, aplikacji, a także danych. Choć miejsce wymienionych produktów próbują zająć systemy UEM, to w oczach wielu klientów nadal stanowią one podstawowe filary zarządzania mobilnością. Niepośledni wpływ na taki stan rzeczy ma nie tylko liczba używanych smartfonów, ale także ilość przetwarzanych danych – w ciągu miesiąca jest to około 10 GB.
– Małe i średnie firmy zgłaszają zapotrzebowanie na systemy MDM, natomiast większe przedsiębiorstwa zazwyczaj szukają rozszerzeń do tego typu platform. Chcą zarządzać smartfonami, tabletami oraz komputerami za pośrednictwem tej samej konsoli – przyznaje Mikołaj Sikorski, New Business Developer w Dagmie.
Systemy MDM wdraża się w celu egzekwowania zasad na urządzeniach należących do firmy, aczkolwiek działają one również w trybie BYOD. Produkty z tej grupy oferują różnego rodzaju zabezpieczenia, w tym szyfrowanie urządzeń, silny kod PIN, blokadę ekranu smartfona po określonym czasie bezczynności czy zdalne czyszczenie urządzenia mobilnego w przypadku jego zgubienia lub kradzieży. Ponadto realizują takie funkcje jak lokalizacja terminali, kontrola i zarządzanie aplikacjami. Według badań przeprowadzonych przez MarketsandMarkets, wartość branży MDM, która w 2017 r. wynosiła 1,69 mld dol., wzrosła do 4,3 mld dol. w roku 2020 r., a w 2025 r. ma osiągnąć poziom 15,7 mld dol. Ten skok jest oczywiście w dużej mierze napędzany wykładniczym wzrostem liczby pracowników mobilnych.
Nieco mniej popularnymi rozwiązaniami niż systemy MDM są MAM-y, które koncentrują się przede wszystkim na poziomie aplikacji, dzięki czemu pracownicy mogą wykonywać zadania robocze na urządzeniach prywatnych. Jednakże granice pomiędzy rozwiązaniami MDM i MAM są coraz bardziej płynne. Wcześniej oba systemy były sprzedawane jako oddzielne produkty, a obecnie często wchodzą w skład standardowego wyposażenia platform EMM lub UEM. Eksperci zauważają, że EMM jest systemem, który powinien sprawdzić się w przypadku firm rozważających uruchomienie wirtualnej infrastruktury mobilnej oraz rozwijających projekty bazujące na dostępie zdalnym oraz chmurze publicznej.
Jak zarządzać przedmiotami IoT?
Przedsiębiorcy zaczynają powoli doceniać wartość urządzeń IoT oraz elektronicznych gadżetów noszonych na ciele. Ale zarządzanie tą grupą produktów, a także ich zabezpieczenie w taki sam sposób jak resztę firmowych urządzeń, stanowi wyzwanie, chociażby ze względu na ich duże zróżnicowanie. Można przytaczać setki przykładów działania przedmiotów IoT w biznesie, od prostych – takich jak pomiary temperatury czy wilgotności – aż po czujnik wagi do podeszew butów, który wibruje, gdy pracownik podnosi zbyt ciężki ładunek. Oczywiście część dostawców UEM deklaruje obsługę urządzeń IoT. Jednakże obejmuje ona najbardziej popularne rozwiązania, takie jak wyświetlacze nagłowne czy smartwache. Zdecydowanie gorzej przedstawiają się możliwości w zakresie zarządzania urządzeniami adresowanymi dla sektora medycznego czy specyficznymi produktami branżowymi.
– Różnorodność urządzeń i systemów, w oparciu o które działają, jest za duża, żeby było możliwe podłączenie całego IoT pod jedną konsolę dla administratora. Myślę, że jak zaczniemy przechodzić z etapu boomu do standaryzacji, wówczas pojawią się techniczne możliwość zarządzania, a nie tylko katalogowania, jak to najczęściej obecnie wygląda – przyznaje Piotr Kudrys.
Swojej szansy w powstałej niszy szukają mniejsi gracze, tacy jak angielska firma Augmate oferująca platformę do zarządzania urządzeniami IoT. Na liście obsługiwanych przedmiotów znajdują między innymi okulary RealWear sterowane głosem, okulary przemysłowe Vuzix M400 czy też Pico G2. Augmate współpracuje z urządzeniami z systemem iOS i Android, ale nie zarządza komputerami stacjonarnym i laptopami. Administratorzy IT mogliby potencjalnie połączyć Augmate z tradycyjnym narzędziem do zarządzania „końcówkami”, ale posiadanie oddzielnych konsoli prowadzi do komplikacji. Tak czy inaczej, tego typu wynalazki zamiast do unifikacji prowadzą do dalszego rozdrabniania rynku.
Dylematy sprzedawców
Integratorzy oferujący systemy do zarządzania urządzeniami końcowymi powinni rozpoczynać proces sprzedaży od zrozumienia strategii cyfrowej klienta oraz miejsca przechowywania i dostępu do jego danych. Tyle teoria, co innego praktyka. Piotr Kudrys przyznaje, że partnerzy działają bardzo różnie. Część skupia się na szybkiej sprzedaży małym i średnim firmom, inni preferują zaawansowane projekty wraz z pakietem usług wdrożeniowych. Jednak z obserwacji Progetu wynika, że najwięcej sprzedaje się prostych rozwiązań uruchamianych praktycznie od ręki. Dzieje się tak, ponieważ przedsiębiorcy zazwyczaj potrzebują rozwiązania „na wczoraj”.
Zdaniem Bogdana Lontkowskiego przebieg procesu sprzedaży zależy w znacznym stopniu od kompetencji sprzedawców. Klasyczni resellerzy preferują rozwiązania pudełkowe, bowiem nie mają wystarczającej wiedzy, aby zaproponować klientowi coś więcej. Natomiast integratorzy wybierają projekty, gdzie pojawiają się możliwości uzyskania dodatkowych przychodów ze sprzedaży usług.
Nie bez znaczenia jest fakt, że łatwiej jest u nas znaleźć odbiorców prostszych systemów aniżeli zaawansowanych kombajnów. Nie ma w tym więc nic dziwnego, że resellerzy wychodzą naprzeciw potrzebom lokalnego rynku.
– Resellerzy, a także integratorzy wykazują największe zainteresowanie systemami EMM, ponieważ większość klientów nie jest w stanie w pełni wykorzystać wszystkich możliwości UEM. Zakres funkcjonalności oferowany przez rozwiązanie EMM w zupełności im wystarcza – tłumaczy Bartosz Leoszewski.
Osobną kwestią pozostaje sprzedaż MDM, UEM czy EMM jako SaaS. Wprawdzie niektórzy dystrybutorzy, w tym między innymi Dagma, mocno stawiają na model usługowy, ale wielu rodzimych resellerów oferuje rozwiązania wdrażane w środowisku lokalnym, zresztą tak jak w wielu innych segmentach rynku nowych technologii. Bogdan Lontkowski ubolewa nad takim stanem rzeczy.
– Odnoszę wrażenie, że lada moment małe i średnie przedsiębiorstwa, które nie zatrudniają informatyków, bądź ich zespoły IT są mocno okrojone, będą poszukiwać rozwiązań UEM dostarczanych przez zewnętrznych usługodawców – mówi Bogdan Lontkowski.
Być może jest to rzeczywiście właściwy moment dla integratorów, aby przygotować się do nowego rozdania i włączyć do walki o rynek, rozszerzając swoje portfolio nie tylko o systemy obsługujące okulary, ale również usługi.
Zdaniem specjalisty
Praca w trybie zdalnym nieco komplikuje możliwości zarządzania urządzeniami końcowymi. Wiadomo, że środowisko domowe jest mniej bezpiecznie niż lokalne biura. Dlatego też dużego znaczenia nabiera odpowiednie zabezpieczenie zdalnych komputerów przed potencjalnymi atakami i włamaniami. W tym przypadku z pomocą może przyjść oprogramowanie nie tylko zarządzające urządzeniami końcowymi, ale również dbające o aktualizacje systemów operacyjnych i operacji użytkowych. Pierwszorzędną cechą jest automatyczne wprowadzanie poprawek, niezależnie od woli użytkownika. Badania jednoznacznie pokazują bowiem, że to właśnie użytkownik stanowi największe zagrożenie dla bezpieczeństwa informacji.
Do kluczowych czynników napędzających popyt na systemy do zarządzania urządzeniami końcowymi należy zaliczyć coraz większą dojrzałość rynkową produktów, a także nieprzewidziane sytuacje, takie jak pandemia. Wzrost liczby zdalnych pracowników wygenerował zapotrzebowanie na rozwiązania, które są w stanie zdalnie skonfigurować i zabezpieczyć urządzenia dostępowe. Innym czynnikiem jest zmiana pokoleniowa pracowników. Młode pokolenia żyją z cyfrowymi technologiami od najmłodszych lat. Chcą z nich również korzystać w pracy, aby utrzymać odpowiednią efektywność i satysfakcję ze sposobu wykonywania swoich zadań. To też pokazuje nasze ostatnie badanie, z którego wynika, że 44 proc. badanych oczekuje w pracy elastyczności co do wyboru urządzeń, ilości czasu poświęcanego na wykonywanie poszczególnych zadań oraz preferowanych godzin, w których są one realizowane.
Zdalna praca wiąże się z nowymi wyzwaniami dla działów IT. Jednym z największych jest zarządzanie urządzeniami końcowymi, które może być utrudnione, kiedy pracownik znajduje się poza siedzibą firmy. Najlepszym i najprostszym rozwiązaniem tego problemu jest wdrożenie systemów MDM lub UEM. Firmy wykazują rosnące zainteresowanie tymi produktami od dwóch lat. O wyborze platformy do zarządzania punktami końcowymi najczęściej decydują trzy czynniki: zabezpieczenie terminali, uzyskanie wyższej produktywności w zarządzaniu flotą urządzeń oraz kontrola nad aplikacjami zainstalowanymi na smartfonach, tabletach i komputerach.
Rozproszenie infrastruktury informatycznej firmy, w postaci służbowych laptopów i smartfonów lub prywatnych urządzeń z zainstalowanymi biurowymi aplikacjami, staje się sporym wyzwaniem dla administratorów. Tracą oni bowiem bezpośredni dostęp do punktów końcowych. Ta sytuacja powoduje zwiększenie zapotrzebowania na systemy do ujednoliconego zarządzania punktami końcowymi, ułatwiające zdalne zarządzanie firmową infrastrukturą. Te rozwiązania, jak sama nazwa wskazuje, powstały w celu unifikacji procesu zarządzania całą infrastrukturą informatyczną firmy. W związku z tym dobry system UEM łączy w sobie cechy MDM, ITAM, MAM czy EMM, zapewniając jednolitą platformę do zarządzania. Jesteśmy zdania, że właśnie to podejście stanie się standardem na rynku.
Artykuł Platformy do zarządzania komputerami i… okularami pochodzi z serwisu CRN.
]]>Artykuł UEM, czyli najwyższy czas na unifikację pochodzi z serwisu CRN.
]]>– Podział systemów do zarządzania urządzeniami końcowymi na UEM, MDM czy EMM jest nieczytelny. Wymienione skróty wykorzystuje się w celach marketingowych, ponieważ ułatwiają wypromowanie produktu w konkretnej kategorii. Pomimo tego, że nasz produkt to typowy UEM, umożliwiający zarządzanie smartfonami, tabletami, laptopami czy urządzeniami Internetu rzeczy, wielu klientów oraz partnerów wciąż określa go jako MDM – mówi Bartosz Leoszewski, pełniący funkcję CEO w Famocu.
Również według Bogdana Lontkowskiego, dyrektora regionalnego na Polskę, Czechy, Słowację i kraje bałtyckie w firmie Ivanti, naturalnym kierunkiem rozwoju narzędzi do zarządzania wydają się być rozwiązania obejmujące jak najszerszą grupę firmowych urządzeń. Optymalna opcja to UEM składający się z modułów EMM oraz EPM, które użytkownik może przystosować do swoich aktualnych potrzeb, a następnie rozszerzać na kolejne obszary przy zachowaniu skalowalności systemu.
Wspomniana kategoryzacja jest po części wymysłem producentów, którzy próbują się w ten sposób wyróżnić i zaistnieć na rynku, a także analityków opracowujących nowe rankingi, ale ma też swoje podłoże historyczne. Pierwsze nowoczesne systemy MDM były odseparowane od narzędzi do zarządzania komputerami PC, a w późniejszym etapie vendorzy zaczęli konsolidować w jednej platformie MDM oraz MAM. W ten sposób powstały narzędzia EMM, które w miarę dojrzewania przekształcały się w UEM-y.Przy czym proces integracji przebiegał według różnych scenariuszy. Część systemów do zarządzania wzbogaciła się o obsługę urządzeń mobilnych za pośrednictwem protokołów MDM. W innych przypadkach dostawcy połączyli platformy obsługujące komputery PC z EMM, zapewniając jednocześnie ujednolicony wgląd we wszystkie urządzenia i aplikacje używane przez pracowników. W tym samym czasie systemy operacyjne dla komputerów stacjonarnych zaczęły dodawać obsługę zdalnego zarządzania za pośrednictwem własnych interfejsów API i protokołów MDM.
Nie ulega wątpliwości, że czas pracuje na korzyść UEM. Większość dostawców systemów do zarządzania punktami końcowymi dąży bowiem do unifikacji, a tego typu rozwiązań oczekują też klienci. Według analityków z MarketsandMarkets globalna wartość rynku UEM osiągnie w 2022 r. wartość 7 mld dol. Dla porównania, w roku 2017 było to zaledwie 1,4 mld dol. Jednym z motorów napędowych tego segmentu są rozporządzenia RODO, KRI czy ISO 27001, obligujące przedsiębiorstwa oraz instytucje do ochrony danych.
– Wymagania i obowiązki narzucone przez prawo często stanowią silniejszą motywację dla przedsiębiorców niż zdrowy rozsądek. Wprowadzenie RODO uzmysłowiło firmom jak wiele danych przechowują na swoich urządzeniach. Technologie klasy UEM, MDM czy EMM ułatwiają zarówno zabezpieczenie tych zasobów, jak też automatyczne sporządzanie raportów o ich stanie – mówi Marta Drozdowska, International Operations Director w Proget Software.
Głód technologiczny daje się we znaki
Ale nie tylko odgórne nakazy skłaniają firmy do inwestycji w UEM-y. Wpływ na poziom zamówień ma również przyrost liczby terminali używanych przez pracowników, a także ilość przechowywanych danych. Ponadto przedsiębiorstwa muszą zmierzyć się z takimi problemami, jak złożoność sieci firmowych, praca w domu, wzrost cyberprzestępczości czy wreszcie brak specjalistów IT. Wdrożenie rozwiązania UEM pozwala w znacznym stopniu uporać się z powyższymi bolączkami, automatyzując rutynowe zadania wykonywane przez administratorów sieci, a także zapewniając płynną integrację z produktami zabezpieczającymi.
Choć systemy UEM znajdują się na fali wznoszącej, wciąż istnieją bariery hamujące ich sprzedaż. Największą z nich jest recesja: firmy tną budżety na IT, a rozwiązania do zarządzania flotą urządzeń rzadko znajdują się na liście priorytetów działów IT. Eksperci zwracają też uwagę na tzw. dług technologiczny. Firmy nadal korzystają z przestarzałego oprogramowania, i choć UEM potrafi wykorzystać liczne udogodnienia Windows 10, to już zdecydowanie gorzej radzi sobie w śro-dowisku Windows 7.
– Dług technologiczny występuje często w dużych firmach, najczęściej państwowych, i rzeczywiście może nastręczać sporo kłopotów. To zjawisko hamuje rozwój i przejście na zdalny tryb pracy. Największą blokadą są stare systemy operacyjne bądź archaiczna infrastruktura sieciowa. Niemniej przy odpowiednim podejściu dług technologiczny może być bodźcem, który zapoczątkuje wprowadzenie zmian. Firmy dostrzegają problem i starają się go zniwelować – mówi Sebastian Kisiel, Senior Sales Engineer w Citrix Systems.
Mnogość w jedności
Mobile Device Management (MDM)
Rozwiązanie do zarządzania urządzeniami mobilnymi. Dekadę temu istniało wiele niezależnych produktów, które skupiały się na zarządzaniu urządzeniami mobilnymi za pośrednictwem interfejsów API i protokołów MDM. Dziś obsługa MDM stała się jedną z wielu funkcji nowoczesnej platformy UEM.
Mobile App Management (MAM)
MAM, podobnie jak MDM, jako samodzielne produkty do zarządzania aplikacjami mobilnymi były kiedyś powszechne, ale teraz stanowią składnik UEM.
Enterprise Mobility Management (EMM)
W ciągu kilku lat fala konsolidacji i aktualizacji produktów zaowocowała platformami EMM, które zawierały zarówno funkcje MDM, jak i MAM. Kiedy platformy EMM zaczęły obsługiwać urządzenia z systemami macOS, Windows i innymi, trendy branżowe szybko się zmieniły. W rezultacie na pierwszym planie pojawiły się rozwiązania do ujednoliconego zarządzania wszystkimi punktami końcowymi.
Client Management Tools (CMT)
Obecnie większość organizacji prawdopodobnie od dwóch dekad korzysta z tradycyjnych narzędzi do zarządzania klientami skoncentrowanych na komputerach PC. W przyszłości systemy te zostaną prawdopodobnie rozszerzone lub ostatecznie zastąpione przez narzędzia UEM.
Unified Endpoint Management (UEM)
Klasa narzędzi, które zapewniają pojedynczy interfejs zarządzania do urządzeń mobilnych, komputerów PC oraz innych terminali. Rozwijają się na drodze ewolucji, zastępując rozwiązania do zarządzania smartfonami i tabletami oraz mobilnością w przedsiębiorstwie.
UEM w pandemicznych czasach
Wybuch pandemii sprawił, że osoby odpowiedzialne za IT w pośpiechu tworzyły zdalne środowiska pracy. W pierwszej kolejności trzeba było zadbać o sprzęt oraz zestawienie bezpiecznych połączeń. W związku z tym na liście zakupów znalazły się komputery oraz usługi VPN. Jednak prędzej czy później administratorzy IT zmierzą się z wyzwaniami jakie niesie ze sobą zmiana modelu pracy. Już dziś wielu pracowników wraz ze swoimi urządzeniami zostało „wypchniętych” poza bezpieczne środowisko firmowe. Taki stan rzeczy nie umyka uwadze hakerów, którzy w czasie zarazy zwiększyli zainteresowanie osobami pracującymi w zaciszu domowym.
Ciekawe informacje na ten temat przynoszą wyniki badania przeprowadzone wśród uczestników tegorocznej konferencji Black Hat. Aż 94 proc. respondentów uważa, że systemy oraz dane należące do przedsiębiorstw są poważnie zagrożone, zaś 57 proc. twierdzi, że najsłabszym ogniwem firmowego bezpieczeństwa są pracownicy domowi. O ile istnieje duże prawdopodobieństwo, że przedsiębiorcy, zaniepokojeni rozwojem wypadków, zainwestują w systemy bezpieczeństwa, o tyle decyzje o zakupie rozwiązań do zarządzania końcówkami mogą przełożyć na spokojniejsze czasy. Sygnały napływające od producentów UEM oraz integratorów działających w tym segmencie rynku pozwalają z umiarkowanym optymizmem patrzeć w nieodległą przyszłość.
– Zauważamy, że w ostatnim czasie w firmach pojawiły się problemy związane z zarządzeniem urządzeniami oraz ich odpowiednim zabezpieczeniem przed atakami. W konsekwencji nastąpił wzrost zainteresowania systemami UEM. Niemniej trudna sytuacja ekonomiczna wielu przedsiębiorców oraz niepewność jutra powodują, że część z nich wstrzymuje inwestycje – tłumaczy Bogdan Lontkowski.
W tym kontekście nie dziwi, że zwłaszcza pierwsze tygodnie pandemii nie były łatwe między innymi dla Famocu, który musiał pogodzić się z opóźnieniami w realizacji projektów. Niemniej Bartosz Leoszewski przyznaje, że sytuacja nie tylko wraca do normy, ale zainteresowanie systemami UEM jest wręcz większe niż przed pandemią. Również Infonet Projekt odnotował wzrost popytu na systemy do zarządzania urządzeniami końcowymi, a klienci najczęściej pytają o funkcjonalności związane z pracą zdalną oraz monitoringiem przebiegu pracy.
COPE lepszy niż BYOD
Przy wdrożeniu systemu UEM szczególną ostrożność powinny przejawiać organizacje, w których przeważa model BYOD. Osoby odpowiedzialne za instalację systemu UEM w tego typu firmach nierzadko konsultują się z działami kadr oraz prawnikami, żeby ustalić, jak dalece można ingerować w urządzenia osobiste wykorzystywane w pracy zawodowej. Jednak o ile ten model jest rozpowszechniony za oceanem czy krajach Europy Zachodniej, o tyle w Polsce zdecydowanie przeważa COPE. Zdaniem Bogdana Lontkowskiego z tego ostatniego bardzo często korzystają dojrzałe firmy, poważnie podchodzące do ochrony danych i zarządzania flotą urządzeń. COPE (corporate-owned, personally-enabled) polega na tym, że przedsiębiorstwo we własnym zakresie tworzy listę urządzeń mobilnych dla pracowników, z góry narzucając im system operacyjny, rodzaj sprzętu itp. Duża popularność tej formy w Polsce jest efektem współpracy pomiędzy przedsiębiorstwami a operatorami sieci komórkowych. Klienci biznesowi zamawiają nie tylko usługi abonamentowe, ale również flotę urządzeń mobilnych po preferencyjnych cenach.
– COPE pozwala organizacji przejąć kontrolę nad kosztami bezpieczeństwa i innymi obszarami objętymi potencjalnym ryzykiem. To rodzaj kompromisu, w którym zapewnia się pracownikom elastyczność, a jednocześnie umożliwia działowi IT łatwe zarządzanie różnymi urządzeniami oraz minimalizuje ryzyko naruszenia bezpieczeństwa – tłumaczy Sebastian Kisiel.
Trudno jest znaleźć jakieś większe mankamenty tego modelu, choć niektórzy twierdzą, że pracownicy często nie znają możliwości urządzeń i potrzebują sporo czasu, aby się z nimi zapoznać. Jednak wydaje się to być argument mało przekonujący, zaś w przypadku najmłodszego personelu, doskonale zaznajomionego z technologicznymi nowinkami, wręcz chybiony.
Zdaniem specjalisty
UEM to termin określający produkty służące do zarządzania klasycznymi komputerami, siecią oraz urządzeniami mobilnymi. Przewidujemy, że ujednolicone podejście stanie się standardem w tym segmencie rynku. Rozwiązania adresowane do ściśle określonych, wąskich zastosowań nie znikną, ale będą stanowić mniejszość. Rosnąca złożoność sieci, a także duże zapotrzebowanie na specjalistów IT – których brakuje – powodują, że firmy poszukują narzędzi do automatyzacji rutynowych zadań. Bez dobrej klasy rozwiązań UEM firmy przestaną nadążać z obsługą wielu procesów, niezbędnych do zachowania płynności i bezpieczeństwa pracy.
Takie rozwiązania jak MDM, EMM czy UEM wciąż ewoluują. Nie ulega wątpliwości, że unifikacja wymienionych narzędzi będzie postępować, a wraz z nią zaczną pojawiać się nowe funkcjonalności. Systemy do zarządzania urządzeniami końcowymi będą zyskiwać nowe możliwości w zakresie automatyzacji procesów i rozszerzonej analityki. Poza tym coraz częściej będą bazować na mechanizmach sztucznej inteligencji oraz maszynowego uczenia. Czynnikiem kreującym popyt na UEM, MDM czy EMM jest praca w domu, wymuszająca zdalne instalowanie oraz wsparcie sprzętu. W tym zakresie z pomocą przychodzą właśnie wymienione rozwiązania. Ponadto epidemia COVID-19 przyniosła ze sobą wzmożoną aktywność cyberprzestępców, zaś ochrona urządzeń końcowych jest jednym z zadań systemów do zarządzania nimi.
Nie tylko AI
W wielu produktach z obszaru bezpieczeństwa i zarządzania pojawiają się innowacyjne funkcje bazujące na sztucznej inteligencji i uczeniu maszynowym. Systemy UEM nie stanowią pod tym względem wyjątku. Wymienione mechanizmy mogą być pomocne w identyfikacji nieprawidłowego zachowania i konfiguracji urządzenia, użytkownika lub aplikacji, ostrzegając IT o zaistniałych problemach. Ponadto znajdują zastosowanie w zarządzaniu dostępem, gdzie technologię można wykorzystać do dostosowania wymagań uwierzytelniania. Korzyści ze sztucznej inteligencji powinniczerpać również użytkownicy sprzętu. W niektórych rozwiązaniach UEM pojawiają się już chatboty, działające na podobnej zasadzie jak Alexa czy Siri w produktach konsumenckich. Niemniej AI to tylko jeden z kierunków rozwoju systemów do zarządzania urządzeniami końcowymi. Bardzo ważną kwestią jest przystosowanie rozwiązań do współpracy z przedmiotami należącymi do segmentu Internetu rzeczy. Bartosz Leoszewski zwraca przy tym uwagę na zmiany zachodzące na rynku telefonii komórkowej.
– Producenci coraz mocniej stawiają na bezpieczeństwo. Unifikacja Androida upodabnia ten system operacyjny do iOS Apple. Zgodnie z wytycznymi Google’a zarządzanie tymi systemami będzie wyglądało identycznie. Niestety, tacy producenci jak Huawei podążają w przeciwnym kierunku. Chiński producent od pewnego czasu tworzy zbiór własnych polityk oraz interfejsów API, które mają zabezpieczać i zarządzać nowymi urządzeniami tej marki – tłumaczy Bartosz Leoszewski.
Jednakże producenci podczas projektowania systemu muszą uwzględniać nie tylko aspekty technologiczne, ale również umiejętnie łączyć często odmienne potrzeby użytkowników. Specjaliści zwracają uwagę, że dostawcy dążą do maksymalnego uproszczenia systemów UEM pod kątem ich efektywności pracy, natomiast działy IT starają się jak najbardziej restrykcyjnie zarządzać urządzeniami, niekoniecznie zwracając uwagę na ich wartość biznesową. Oba podejścia trzeba więc umieć ze sobą pogodzić.
Zdaniem integratora
Postępująca cyfryzacja, a także dojrzałość organizacji to czynniki zwiększające popyt na systemy do zarządzania urządzeniami końcowymi. Z naszych obserwacji wynika, że wiele firm wdrożyło już Active Directory czy narzędzia bezpieczeństwa UTM. Kolejny krok stanowi inwestycja w produkty przeznaczone do zarządzania flotą urządzeń. Często u klientów spotykamy rozwiązania autorskie lub opracowane na bazie open source. Niemniej migracja do scentralizowanych systemów komercyjnych przynosi im wiele korzyści. Chęć posiadania jednolitego rozwiązania jest bardzo często podyktowana optymalizacją kosztów, natomiast korporacje zazwyczaj preferują oprogramowanie dostosowane do sprecyzowanych potrzeb. Dlatego też przewiduję, że w najbliższym czasie w niektórych obszarach unifikacja będzie postępować, ale swoją pozycję rynkową umocnią też systemy wyspecjalizowane.
Artykuł UEM, czyli najwyższy czas na unifikację pochodzi z serwisu CRN.
]]>Artykuł Licencjonowanie oprogramowania: postrach świata IT pochodzi z serwisu CRN.
]]>Czy daną aplikację można zainstalować w wirtualnej maszynie? Czy umowa licencyjna zostanie złamana, jeśli wykonam kopię tej maszyny w celach testowych? Czy z oprogramowania mogą korzystać osoby z zewnątrz – nasi klienci i partnerzy, np. w udostępnionych im wirtualnych maszynach? Czy umowy licencyjne zachowają ważność, gdy nasza firma zostanie kupiona przez inną? Czy możemy używać oprogramowania, na które posiadamy licencje, w otwartym właśnie oddziale za granicą?
Podobnych pytań jest dużo więcej. Teoretycznie odpowiedź na każde z nich powinna być zawarta w umowie licencyjnej. Powinni ją też doskonale znać twórcy oprogramowania i ich partnerzy. W praktyce jednak sytuacja okazuje się bardziej skomplikowana. Szybki rozwój branży IT powoduje, że w umowach powstają luki bądź niedopowiedzenia, z czego potrafią skrzętnie korzystać zarówno użytkownicy, jak i producenci. W efekcie czasami dochodzi do tarć pomiędzy firmami, które teoretycznie powinny być partnerami w biznesie. Teoria spiskowa mówi, że uzdrowienie sytuacji związanej z licencjonowaniem nie leży w interesie producentów, a im bardziej zawiły system, tym łatwiej można łapać i karać nieuczciwych klientów. Co bowiem stoi na przeszkodzie, żeby to wszystko uprościć, aby klient nie miał żadnych wątpliwości? A jednak wygląda na to, że rzeczywistość jest bardziej skomplikowana.
Wszystkiemu winna wirtualizacja?
W erze przedwirtualizacyjnej największe zamieszanie w kwestiach licencjonowania wprowadzały wieloprocesorowe serwery oraz trudności w podjęciu decyzji, czy liczba licencji ma być wykupiona na liczbę zarejestrowanych czy zalogowanych użytkowników. Od połowy ubiegłej dekady, gdy popularność zyskały rozwiązania VMware, a chwilę później także konkurencyjnych marek, sprawa znacznie się skomplikowała.
Problem w tym, że uruchamianemu w wirtualnej maszynie systemowi operacyjnemu można przypisać dowolną liczbę fizycznych rdzeni lub procesorów, sama maszyna zaś będzie identyfikować je jako jeden wirtualny procesor. Co więcej, ich liczbę można dynamicznie zmieniać albo przenosić działającą wirtualną maszynę na szybszy serwer. To powoduje, że w przypadku wykupienia licencji na konkretną liczbę procesorów lub rdzeni bardzo łatwo o doprowadzenie do niezgodności z umową licencyjną. A nie każde oprogramowanie weryfikuje parametry środowiska, w którym działa, i ostrzega administratorów w przypadku niezgodności licencyjnych.
Kolejnym częstym przykładem naruszenia ustaleń licencyjnych jest duplikowanie wirtualnych maszyn w celach testowych, disaster recovery itp. Brak skrupulatności przy ewidencjonowaniu działających maszyn może doprowadzić do tego, że np. taka testowa maszyna zostanie wprowadzona do środowiska produkcyjnego bez licencji na uruchomione w niej oprogramowanie.
– Zdarza się, że dla klienta wyzwaniem jest budowanie środowiska wirtualnego, gdy ma już właściwe licencje, a z reguły tak właśnie jest. Z doświadczenia wiem, że za każdym razem, gdy sytuacja nie jest jasna, warto weryfikować ją bezpośrednio u producenta danego systemu operacyjnego czy aplikacji albo u resellerów, którzy sami są w stanie udzielić informacji bądź skontaktować klienta z właściwym działem u producenta – wyjaśnia Sebastian Kisiel, inżynier systemowy w polskim oddziale Citrix Systems.
Producenci się tłumaczą
Podczas rozmów z redakcją CRN Polska wiele osób wskazywało konkretnych twórców oprogramowania, których modele licencjonowania sprawiają kłopoty. Mnóstwo opinii można znaleźć także w Internecie. Producentom zarzuca się zbyt dużą różnorodność modeli licencjonowania, a czasem też brak przejrzystości umów licencyjnych. Podium zajmują trzy firmy: IBM, Microsoft i Oracle (kolejność alfabetyczna). Oprócz nich wymieniane są także: Adobe (dopiero niedawno przeszedł na model wyłącznie chmurowy), Symantec i VMware. Oczywiście tworząc podobne zestawienia, należy zawsze wziąć pod uwagę, że im popularniejszy dostawca, tym większe prawdopodobieństwo pojawienia się uwag odnośnie do jego oferty. Niemniej niektóre argumenty są na tyle mocne, że trudno zasłaniać się statystyką.
Sebastian Kisiel
inżynier systemowy, Citrix Systems
Od wirtualizacji nie ma ucieczki. Dlatego producenci oprogramowania musieli zaakceptować ten fakt i dostosować do niego swoje modele licencjonowania. Wielu z nich zapewnia wersje systemów operacyjnych i aplikacji do pracy w wirtualnych maszynach, które różnią się od tych instalowanych na urządzeniach końcowych. Dlatego sposób korzystania z określonego oprogramowania warto znać już w momencie jego zakupu. Trzeba też pamiętać, że sposób licencjonowania może być różny w zależności od wersji stosowanej aplikacji.
– Wielość rodzajów proponowanych umów i warunków licencyjnych dotyczących poszczególnych produktów jest konsekwencją rozbudowanej oraz kompleksowej oferty naszych rozwiązań dla instytucji i przedsiębiorstw różnej wielkości, działających w rozmaitych branżach. Co jednak najważniejsze, różne warianty umów dostosowane są do specyfiki danej grupy odbiorców: inne odpowiednie są dla organizacji samorządowych, inne dla jednostek edukacyjnych, a jeszcze inne dla największych przedsiębiorstw – tłumaczy Daria Łukasiewicz, ekspert ds. licencjonowania w polskim oddziale Microsoft.
Zwraca przy tym uwagę, że coraz powszechniej wykorzystywane usługi chmurowe wymagają innego podejścia i definiowania zapisów umownych. W efekcie system licencyjny Microsoftu, jak podkreśla Daria Łukasiewicz, odzwierciedla złożoność oferty i wielość scenariuszy, jakie producent daje do wyboru swoim klientom. Podobną argumentację stosują inne firmy, przy czym przyznają, że na opisaną sytuację negatywny wpływ ma poziom skomplikowania samego oprogramowania, które ma wiele funkcji wymagających zakupienia licencji uzupełniających. W tym kontekście przez użytkowników najczęściej wskazywane jest oprogramowanie firmy Oracle, podczas instalowania którego wgrywane są wszystkie moduły, w tym dodatkowo płatne. Tymczasem od administratorów nie jest wymagane podawanie klucza, żeby włączyć opcjonalne funkcje, co czasem prowadzi do nadużyć.
Bogdan Lontkowski
dyrektor regionalny na Polskę, Czechy, Słowację i kraje bałtyckie, Ivanti
W dziedzinie związanej z licencjonowaniem oprogramowania jest jeszcze wiele do zrobienia. Sytuacja jest analogiczna do tej u operatorów telefonii komórkowej. Jeśli chcą pozyskać nowego klienta, zachęcić go, aby przeszedł do nich z innej sieci, są w stanie zaproponować mu najlepsze warunki na świecie. Ale później „w nagrodę” dostaje coraz mniej korzystne oferty. O poziomie komplikacji różnych aspektów związanych z licencjami może chociażby świadczyć długość trwania audytów prowadzonych przez producentów – od kilku miesięcy do nawet półtora roku. A przecież producenci najlepiej znają zasady licencjonowania swojego oprogramowania…
Za mało, za dużo
Ponieważ rynek nie znosi próżni, pojawiły się na nim rozwiązania do zarządzania licencjami – inwentaryzacji i optymalizacji. Nie należą do najtańszych, bo samo stworzenie takiego oprogramowania, wobec opisanych powyżej okoliczności, nie należy do zadań prostych, a oprócz tego konieczna jest jego nieustanna aktualizacja. Za to wiele przedsiębiorstw, w których liczba użytkowanych aplikacji przekroczyła masę krytyczną, uzyskało bardzo szybko zwrot z inwestycji w rozwiązania do zarządzania nimi. Często bowiem okazuje się, że licencji w firmie nie jest zbyt mało, lecz… zbyt dużo. A to wpływa na opłaty wnoszone producentowi za wsparcie.
– Oprogramowanie do optymalizacji posiadanych licencji powinno, obok inwentaryzacji, umożliwiać analizę efektywności kosztowej w różnych scenariuszach wykorzystania – mówi Bogdan Lontkowski, dyrektor regionalny Ivanti na Polskę, Czechy, Słowację i kraje bałtyckie. – Może to być bardzo pomocne, gdy firma zamierza przenieść część oprogramowania do chmury i potrzebne jest kompleksowe porównanie z modelem on-premise. Często też klienci są zainteresowani symulacjami rozwoju bazy sprzętowej w wariantach uwzględniających różną liczbę procesorów w serwerze, rdzeni w procesorze itd.
Dbałość o zgodność posiadanego stanu z zapisami umowy licencyjnej konieczna jest nie tylko ze względu na etykę biznesową i zwykłą uczciwość. Producenci oprogramowania od czasu do czasu prowadzą audyty u swoich klientów. Tłumacząc ich zasadność dbałością o własny interes, zastrzegają jednak stanowczo, że procedura ta nie ma na celu penalizacji klientów.
– Zdarza się, że klienci emocjonalnie reagują na zaplanowany przez nas proces przeglądu licencyjnego, bo nigdy w nim nie uczestniczyli – mówi Daniel Matusiak, dyrektor pionu działu oprogramowania w polskim oddziale IBM. – Tymczasem to nie jest nic strasznego. Zewnętrzny, wyznaczony przez nas audytor wspólnie z przedstawicielem klienta przegląda wykorzystywane w danej firmie oprogramowanie, z uwzględnieniem uruchomionych funkcji, jeśli niektóre z nich podlegają dodatkowemu licencjonowaniu. Po przeglądzie przygotowywany jest raport odzwierciedlający stan faktyczny i porównujący go z posiadanymi przez klienta aktywnymi licencjami. Jeżeli są jakieś rozbieżności, wówczas przedstawiciel IBM-u wyjaśnia je z klientem. Natomiast od ponad dekady nie zdarzyło się, żebyśmy z kimś weszli w spór prawny – wszystko rozwiązywane jest na drodze ugodowej.
Jak podkreśla Daniel Matusiak, jeżeli klient ma zainstalowane jakieś oprogramowanie, na które nie ma licencji, ale też z niego nie korzysta, producent po prostu prosi o jego odinstalowanie. Jeżeli zaś nie ma aktualnych licencji na nadal wykorzystywane aplikacje, wówczas oczekuje, żeby za nie zapłacił. Nie jest stosowany żaden system kar, celem jest, aby sytuacja była fair dla obu stron.
– Przegląd licencji u każdego klienta przeprowadzany jest raz na kilka lat. Każdy kolejny przebiega znacznie szybciej, bo audytor bazuje na wcześniejszych raportach, a i klient już wie, czego może się spodziewać. Zresztą po każdym przeglądzie nasze relacje są lepsze, bardziej dojrzałe. Klienci też coraz lepiej zarządzają licencjami oraz optymalizują ich wykorzystanie. Zarówno my, jak i oni, z pełnym szacunkiem podchodzimy do wzajemnie prowadzonych biznesów – dodaje Daniel Matusiak.
Nadzieja w chmurze
Wraz z pojawieniem się chmury wiele zagadnień związanych z licencjonowaniem oprogramowania być może straci rację bytu. Najprostsza jest sytuacja w przypadku aplikacji dostępnych w modelu SaaS czy platform w modelu PaaS – jeśli użytkownik nie zapłaci, straci do nich dostęp. Ale gdy przejdziemy do infrastruktury dostępnej jako usługa (IaaS), sytuacja się komplikuje – pojawiają się podobne kłopoty jak w przypadku wirtualizacji w środowisku on-premise. Wdrażanie oprogramowania firm trzecich w infrastrukturze zlokalizowanej w teoretycznie nieskończenie skalowalnej chmurze wymaga jeszcze innej niż dotychczas metody licencjonowania. Na szczęście producenci dość szybko zauważyli ten problem.
– Nieustannie pracujemy nad uproszczeniem zasad licencjonowania, niezależnie od tego, w jakim modelu klient kupuje rozwiązanie: on-premise czy w modelu chmurowym – podkreśla Daria Łukasiewicz z Microsoftu. – Nowe produkty, zwłaszcza w chmurze, są w większości wprowadzane i oferowane w ramach obecnych umów licencyjnych tak, aby nie było konieczności ich zmiany. Jednocześnie modyfikowane są dodatkowe sposoby licencjonowania produktów chmurowych, które zapewniają ewentualne dopasowanie się do potrzeb klienta, jak chociażby możliwość zmiany liczby subskrypcji co miesiąc.
Podobne możliwości przeniesienia aktywnych licencji do chmury zapewnia Oracle. Klienci mogą np. uruchomić relacyjną bazę danych tego producenta w chmurze AWS, bazując na własnej licencji. Ewentualnie skorzystać z oprogramowania dostępnego w sklepie tego usługodawcy, rozliczając się w modelu czasowym.
Za każdym razem warto jednak przyglądać się warunkom zapisanym „drobnym druczkiem” w umowach licencyjnych. Zwłaszcza jeśli budowane jest środowisko bazujące na elementach pochodzących od różnych dostawców oprogramowania i usług. Szczególną uwagę należy zwracać na klauzule dotyczące praw dostawców usług, np. do wykonywania kopii wirtualnych instancji. Precyzyjnie należy ustalić też, kto odpowiada i w jakim stopniu za aktualizowanie i łatanie działającego w chmurze oprogramowania, oraz zakres odpowiedzialności w przypadku złamania zapisów licencyjnych.
CRN Czy rzeczywiście kwestie związane z licencjonowaniem oprogramowania największych dostawców, w tym Microsoftu, są tak skomplikowane, że nawet specjalistom trudno sobie z nimi poradzić?
Grzegorz Soczewka W przypadku Microsoftu współpraca w zakresie licencjonowania od zawsze wymagała pewnej doktoryzacji – nigdy nie było zbyt jasne i przejrzyste. Chociaż trzeba podkreślić, że gdy Microsoft przeszedł na tryb rozliczeń subskrypcyjnych, dość znacznie się to uprościło. Odejście od pojęcia wieczystych licencji oraz całkowita zmiana koncepcji i wprowadzenie modelu Cloud Solution Provider, czyli trybu, w którym klient rozlicza się za wykorzystane zasoby, zostało bardzo dobrze przyjęte przez rynek. Jedynym hamulcowym w kontekście chmury jest dziś polskie prawo, które wprowadza ograniczenia w pewnych segmentach rynku, np. bankowości.
CRN Czyli zamiast uprościć modele licencjonowania, wymyślono zupełnie inny sposób sprzedaży oprogramowania. Jak duża jest to rewolucja z punktu widzenia partnerów?
Grzegorz Soczewka Bardzo duża, czego efektem jest to, że wciąż część partnerów sobie z tym nie radzi. U nas też konieczne były duże zmiany organizacyjne, m.in. stworzyliśmy dział sprzedaży rozwiązań chmurowych i skupiliśmy się w nim głównie na współpracy z Microsoftem. Największym wyzwaniem była całkowita zmiana stylu komunikacji z klientami i wprowadzenie nowych sposobów argumentacji, żeby zobaczyli profity płynące z modelu chmurowego i zdecydowali się na niego. Z kolei od strony technicznej coraz rzadziej inżynierowie są odpowiedzialni za sprawdzanie, czy „dysk się kręci”, a częściej zajmują się zarządzaniem środowiskiem i wspieraniem użytkowników.
CRN Czy istnieje możliwość stworzenia porównania kosztowego obu modeli? Czy w nowym też pojawiają się gdzieś elementy niepoliczalne?
Grzegorz Soczewka Takie elementy istnieją po stronie infrastruktury on-premise. Musimy przyjąć jakiś cykl życia zainstalowanych w firmie rozwiązań, standardowo są to 3–4 lata. Wówczas trzeba byłoby policzyć koszty wsparcia producenta, pracy administratorów, ewentualnych dodatkowych gwarancji, powierzchni w serwerowni, prądu zużywanego na zasilanie i chłodzenie itd. To wszystko także, obok kwoty za licencje, wpływa na całkowity koszt, ale… z reguły nikt tego nie liczy. Natomiast w przypadku korzystania z chmury każdy z wymienionych kosztów jest wliczony w cenę. Nie mówiąc już o tym, że te koszty zawsze będą niższe, bo mamy efekt skali. Oprócz tego trzeba zauważyć, że kiedyś nowe wersje oprogramowania pojawiały się co 3 lata, a teraz średnio co 1,5 roku. Cały świat dąży do standaryzacji, więc wszyscy wokół powinni korzystać z tych samych wersji oprogramowania, aby uniknąć ryzyka niekompatybilności, na przykład stworzonych przy jego pomocy dokumentów.
Podczas prowadzonych na potrzeby artykułu rozmów dotyczących kwestii związanych z licencjonowaniem atmosfera była na tyle specyficzna, że byłby to dobry materiał do badań dla zawodowego socjologa, a być może nawet psychologa. Dominuje syndrom wyparcia („to najgorszy element mojej pracy”), padają oskarżenia wobec dostawców lub odbiorców oprogramowania czy usług, ale też nie brakuje pewnych przekłamań. Poza tym wiele osób nabiera wody w usta i pod żadnym pozorem nie chce się wypowiadać publicznie na temat problemów z licencjonowaniem albo zamiast wyjaśniać sytuację u siebie, ochoczo oskarża konkurencję, prosząc przy tym jednak o zachowanie anonimowości. Przykładowo udzielenia nam komentarza odmówił Oracle – firma najczęściej wymieniana przez rozmówców CRN Polska jako ta, która w kontekście licencjonowania sprawia największe problemy, a prowadzone przez nią audyty rzekomo nie przechodzą gładko.
W trakcie prac nad artykułem kilkukrotnie usłyszeliśmy również, że Microsoft nie zadbał o zebranie w jednym miejscu wszystkich informacji dotyczących licencjonowania (takie repozytorium dostępne jest pod adresem www.microsoft.com/pl-pl/licensing). Albo że producenci w efekcie prowadzonych audytów nakładają na klientów wielomilionowe kary za brak licencji na używane oprogramowanie (w ten sposób strzelaliby sobie w kolano, taka informacja dziś bardzo szybko rozeszłaby się po rynku, więc nikt nie chciałby z nimi współpracować). Co ciekawe, wzajemne i często bezpodstawne oskarżenia mają miejsce nie tylko w Polsce. Wystarczy prześledzić wpisy na różnego typu forach i blogach, gdzie – często w mało elegancki sposób – ścierają się argumenty przedstawiane przez różne strony sporu.
No cóż, skoro oprogramowanie ma postać niematerialną i nie jest sprzedawane jako przedmiot, nierzadko trudno jednoznacznie ocenić, czy liczba używanych instancji równa jest zapisom umowy. Zwłaszcza że treść umów najczęściej jest przekładem (bo trudno nazwać ją tłumaczeniem) na język polski z prawniczego języka angielskiego i ich lektura wymaga wyjątkowej cierpliwości i umiejętności koncentracji. A że przy większych wdrożeniach mowa jest o wielomilionowych kwotach, konflikt interesów jest naturalny – każdy będzie chciał przeciągnąć linę na swoją stronę, przy czym oczywiście producentom nie można odmówić prawa weryfikacji tego, jak klienci korzystają z ich produktów.
Natomiast twórcom oprogramowania zarzucić można – na co narzekają klienci – że nie wprowadzają mechanizmów weryfikowania nadużyć licencyjnych, które pomogłyby wyeliminować wiele problemów i niedopowiedzeń. Pozostaje mieć jedynie nadzieję, że coraz bardziej popularny model abonamentowego rozliczania zasobów kupionych w chmurze publicznej pozwoli na oczyszczenie atmosfery.
Artykuł Licencjonowanie oprogramowania: postrach świata IT pochodzi z serwisu CRN.
]]>Artykuł Sztuka zarabiania na wirtualizacji pochodzi z serwisu CRN.
]]>Jeśli chodzi o same technologie, należy zwrócić uwagę przede wszystkim na to, że maszynom wirtualnym wyrosła konkurencja w postaci kontenerów. Są coraz częściej brane pod uwagę przez klientów ze względu na łatwe w obsłudze narzędzia programistyczne, standaryzację, popyt na mikrousługi oraz ogólnie na popularność cloud computingu. Kolejną alternatywą dla wirtualizacji lokalnych środowisk są coraz popularniejsze usługi IaaS. Specjaliści Gartnera twierdzą, że maszyny wirtualne dostarczane z chmury publicznej stanowiły w 2015 r. już 20 proc. wszystkich maszyn wirtualnych (w 2011 r. zaledwie 3 proc.). Wygląda na to, że trend ten będzie się utrzymywał i większa liczba nowych serwerów wirtualnych będzie działać w chmurze niż w środowisku lokalnym.
Cloud computing można określić jako sposób korzystania z zasobów obliczeniowych, który znajduje zastosowanie w przypadku specyficznych zadań – szczególnie tych wymagających skalowania i elastycznego przydzielania zasobów. Rosnąca popularność chmury stymuluje ewolucję w technikach wirtualizacji tak, aby stawały się one coraz lżejsze. Dzięki temu zdecydowanie łatwiejsze staje się tworzenie, wdrażanie i skalowanie aplikacji. Potwierdzeniem tej ewolucji jest ogromne zainteresowanie kontenerami.
Według Gartnera wśród firm, które już korzystają z wirtualizacji lokalnych serwerów i chmur prywatnych, rośnie zainteresowanie automatyzacją tych środowisk, usługami zarządzalnymi lub hostingiem. Najbardziej zaawansowane przedsiębiorstwa zaczynają chętniej budować swoje chmury prywatne z wykorzystaniem rozwiązań open source. W przypadku dużych firm wyraźnie widać, że większość z nich korzysta z więcej niż jednej platformy wirtualizacji. Poza tym często integrują one swoje środowisko lokalne z chmurami publicznymi, konstruując rozwiązania hybrydowe.
Wirtualizacja serwerów i kontenery stanowią podstawę do budowania chmur prywatnych, publicznych i hybrydowych. W szczególności usługi IaaS są świadczone na bazie środowisk wykorzystujących maszyny wirtualne. O ile w obszarze chmur publicznych następuje ekspansja, o tyle w przypadku użytkowników korporacyjnych analitycy Gartnera dostrzegają już pewne nasycenie i niewielki wzrost liczby maszyn wirtualnych.
Podstawowe oprogramowanie do wirtualizacji serwerów od lat jest bezpłatne. Jednak, wbrew pozorom, darmowy hypervisor to nie jest zła informacja dla integratorów. Potencjał biznesowy związany ze sprzedażą wirtualizacji serwerów w dużej mierze wynika z szeregu możliwości, które ona stwarza, w zakresie nowego sprzętu, ale przede wszystkim szerokiego wachlarza związanych z nią usług. Projekty wirtualizacyjne bardzo często obejmują szereg elementów, np. dodatkowe oprogramowanie do zarządzania i automatyzacji. Poza tym firmy realizujące projekty wdrożeniowe na bezpłatnej platformie do wirtualizacji mogą zarobić na usługach. Tańsze oprogramowanie oznacza niższe koszty całego projektu. W efekcie łatwiej przekonać klienta do wdrożenia. Biorąc przy tym pod uwagę, że marże na sprzedaży licencji na oprogramowanie nie są wysokie, brak przychodu ze sprzedaży hypervisora nie ma aż tak dużego znaczenia. Poza tym można zarabiać na dodatkowych narzędziach (np. do backupu), które są często objęte programami rabatowymi przez producentów czy też programami dla integratorów, co w praktyce oznacza np. rabat przy zakupie licencji bądź bonus po przeprowadzonej transakcji.
Wirtualizacja w Polsce
Według danych Veeam Availability zaledwie 41 proc. usług w dużych przedsiębiorstwach w naszym kraju zostało zwirtualizowanych. Z deklaracji ankietowanych dyrektorów IT wynika, że w ciągu najbliższych dwóch lat wskaźnik ten wzrośnie, lecz jedynie do 45 proc. Wraz z powolną, ale jednak postępującą popularyzacją tej techniki rośnie również zainteresowanie szeregiem związanych z nią elementów: narzędziami do zarządzania i automatyzacji środowisk wirtualnych oraz szerokim spektrum usług.
Przyzwoite przychody można również uzyskiwać z konsultingu w zakresie właściwego przygotowania klienta do samodzielnego wdrożenia wirtualizacji lub z przeprowadzenia tego procesu (planowania, migracji aplikacji ze środowisk fizycznych do wirtualnych, testów itd.). Bardziej zaawansowane projekty wirtualizacyjne wymagają wdrożenia właściwego systemu zarządzania takim środowiskiem. Inną bardzo ważną kwestią są przychody z różnego rodzaju usług, które integrator może świadczyć klientowi: począwszy od usług wdrożeniowych, uruchomienia systemu, jego integracji z warstwą sprzętową, skończywszy na usługach wsparcia technicznego. Kolejny obszar stanowią usługi związane z utrzymaniem środowiska klienta albo wręcz przeniesieniem zwirtualizowanej infrastruktury do serwerowni dostawcy usług.
W przypadku outsourcingu zarządzania infrastrukturą integrator może pełnić rolę drugiej linii wsparcia dla działu IT klienta. Świadczenie takiej usługi często obejmuje bieżącą administrację i zarządzanie środowiskiem informatycznym, wdrażanie aktualizacji i ewentualnych poprawek, dbałość o bezpieczeństwo, ale także kontrolę nad całością architektury serwerowej lub zarządzanie migracją środowiska. Integrator zazwyczaj pełni również rolę doradcy. W praktyce oznacza to, że może udzielać rekomendacji, gdy np. dla jednego ze stosowanych w organizacji produktów kończy się oficjalne wsparcie ze strony dostawcy (np. Microsoftu dla Windows Server 2003).
Wyniki ankiety przeprowadzonej przez VMware pokazują, że na każdego dolara wydanego na oprogramowanie do wirtualizacji przypada 11,26 dol., które klienci przeznaczają na pozostałe elementy potrzebne do wdrożenia środowiska wirtualnych serwerów. Z tego najwięcej, bo 4,07 dol., przypada na profesjonalne usługi. W następnej kolejności są to wydatki na: macierze dyskowe (2,81 dol.), produkty sieciowe (1,26 dol.), aplikacje biznesowe (1,24 dol.) i inne oprogramowanie (0,96 dol.) oraz zabezpieczenia (0,92 dol).
Tomasz Krajewski
Automatyzacja staje się niezbędna do efektywnego zarządzania coraz bardziej złożoną infrastrukturą wirtualną. Kwestią do rozważenia w tym kontekście jest nie „czy”, ale „kiedy” przedsiębiorstwo wdroży odpowiednie rozwiązanie. Usprawnienie procesów zarządzania to tylko jedna z odnoszonych korzyści. Oprogramowanie nowej generacji oferuje ponadto kilka dodatkowych możliwości. Poza wskazaniem, które maszyny wymagają natychmiastowej uwagi, rozwiązanie do zarządzania środowiskami wirtualnymi potrafi generować raporty biznesowe. Z takim dokumentem dział IT jest choćby w stanie skuteczniej uzasadnić użytkownikom biznesowym konieczność dodatkowych inwestycji.
Mechanizmy automatyzacji i zarządzania wirtualizacją nie są obszarem zarezerwowanym dla dużych firm czy dostawców usług. Metod automatyzacji jest bowiem wiele i znajdują zastosowanie w środowiskach różnej wielkości. Kluczem okazuje się odpowiednie dobranie tych metod tak, aby były adekwatne do potrzeb klienta. Określenie zakresu automatyzacji zależy przede wszystkim od skali środowiska IT oraz planów jego rozwoju. Im większe środowisko, tym większe korzyści. Jednak nawet w niewielkim środowisku, składającym się z kilku maszyn wirtualnych, są operacje, które warto zautomatyzować. Chodzi o regularnie wykonywanie czynności, o których administrator mógłby po prostu zapomnieć w natłoku innych zadań. Do takich należą tworzenie kopii zapasowych czy sprawdzanie aktualizacji.
Trzy pytania do…
CRN Jakie jest zainteresowanie polskich firm rozwiązaniami do automatyzacji zarządzania środowiskami wirtualnymi?
Artur Matzka Firmy coraz częściej pytają o automatyzację i orkiestrację, zarówno środowisk wirtualnych, jak i fizycznych. Obecnie większość z nich jest jednak na etapie testowania różnych rozwiązań i wdrażania automatyzacji fragmentarycznie – ograniczają się do wybranych obszarów. Tylko nieliczne, bardzo duże podmioty podchodzą do automatyzacji całościowo. W polskich realiach istnieje ryzyko, że w średniej wielkości przedsiębiorstwach koszt rozwiązania do automatyzacji i jego wdrożenia mógłby być wyższy niż zysk osiągnięty dzięki automatyzacji. Dlatego tego typu projekty mają szanse powodzenia przede wszystkim w dużych, zaawansowanych technicznie firmach.
CRN Czy integratorzy mogą świadczyć zdalnie usługi automatyzacji i zarządzania środowiskami wirtualnymi?
Artur Matzka Klienci najczęściej pytają o usługi wsparcia, utrzymania i konsultację w kontekście całego środowiska wirtualnego – serwerów, pamięci masowych SAN i NAS, sieci lokalnej i wirtualizacji. Rzadziej usługi te dotyczą codziennego administrowania środowiskiem IT.
CRN Czy w polskich realiach model Software Defined Anything cieszy się zainteresowaniem?
Artur Matzka Wirtualizacja serwerów okazała się słusznym kierunkiem rozwoju środowiska IT. Dziś intensywny rozwój zaawansowanych technologii umożliwia wykonanie następnego kroku: wirtualizację warstwy pamięci masowych i sieci. Pozwoli to na budowę centrum danych na dowolnym sprzęcie, w całości zdefiniowanym programowo. Na razie jednak na polskim rynku jesteśmy na etapie budowania świadomości wśród firm i testowania tego typu rozwiązań. Z pewnością wirtualizacja pamięci masowych jest mniej popularna niż wirtualizacja serwerów. Sama technika jest dostępna już od pewnego czasu, ale najwięcej firm zainteresowało się nią dopiero po pojawieniu się funkcjonalności klastrów rozległych metro. Dzięki nim urządzenia służące do łączenia zasobów systemów pamięci masowych pochodzących od różnych dostawców mogły być wykorzystane do tworzenia architektury centrum danych odpornej na katastrofy, zamiast tradycyjnego „uzdrawiania” po awarii. Z kolei wirtualizacja sieci to najmłodsza z technik, ale cieszy się bardzo dużym zainteresowaniem firm. Aktualnie wdrożenia w Polsce ograniczają się do środowisk testowych i deweloperskich, ale w mojej ocenie już wkrótce będzie ona powszechnie wykorzystywana.
Podstawową metodą automatyzacji jest tworzenie skryptów, które potrafią wykonać działania na pojedynczych wirtualnych maszynach. W ten sposób można zautomatyzować, np. przydzielanie zasobów. Takie podejście sprawdzi się w przypadku autonomicznych systemów, których konfiguracje nie są zależne od innych systemów. Jeśli wiele maszyn wirtualnych tworzy np. klaster aplikacyjny, konieczne jest skoordynowanie ich konfiguracji, co z reguły wiąże się z budowaniem przepływu zadań, czyli sekwencji operacji wykonywanych w określonej kolejności, co wymaga synchronizacji między wieloma systemami. W kompleksowych scenariuszach logika programu odpowiadającego za taki przepływ może być skomplikowana, przekraczając możliwości prostych skryptów. Wtedy warto polecić klientowi wdrożenie silnika przepływów.
Jeśli klient wykorzystuje 50-100 maszyn wirtualnych, opłaca się już automatyzacja procesów ich tworzenia (np. z użyciem szablonów) oraz instalowania w nich systemów operacyjnych. Im wcześniej się w to zainwestuje, tym szybciej pojawią się korzyści. Wprowadzenie automatyzacji do już istniejącego środowiska czy też na zaawansowanym etapie wdrożenia jest znacznie trudniejsze, niż kiedy zrobi się to na początku. Profity będą większe, jeśli wszystkie maszyny wirtualne zostaną stworzone według tych samych reguł. Dzięki temu bowiem łatwiejsza będzie późniejsza automatyzacja zarządzania nimi.
Wojciech Kotkiewicz
Klienci coraz częściej decydują się na rozwiązania kompleksowe, z ujednoliconym zarządzaniem, łatwością rozbudowy, a przede wszystkim z optymalnym wykorzystaniem zasobów w ich serwerowniach i profesjonalnym wsparciem ze strony integratora. Bardzo istotnym elementem dotyczącym w zasadzie każdego segmentu infrastruktury IT jest bezpieczeństwo. Problem w jednym obszarze może bowiem rzutować na całe środowisko. Konieczne jest więc zabezpieczenie ruchu do części serwerowej. Dodatkowo, aby zapewnić ciągłość pracy środowiska, należy stosować narzędzia do tworzenia kopii zapasowych serwerów wirtualnych i szybkiego ich przywracania po awarii.
Bartłomiej Machnik
Obserwujemy duże zainteresowanie klientów rozwiązaniami automatyzującymi zarządzanie środowiskiem wirtualnym. W przypadku większych środowisk ich ręczna obsługa jest niemal niemożliwa lub przynajmniej bardzo pracochłonna i podatna na błędy. Tworzenie architektury chmury hybrydowej czy rozwiązań umożliwiających awaryjne odtwarzanie infrastruktury centrów zapasowych w chmurze publicznej to zadania bardzo trudne do realizacji bez dobrych rozwiązań automatyzujących zarządzanie. Coraz wyższy priorytet zyskują również kwestie związane z bezpieczeństwem i zapewnieniem ciągłości działania.
Przy liczbie maszyn wirtualnych sięgającej kilkuset sztuk warto już rozważyć wdrożenie systemu orkiestracji, umożliwiającego ich samoobsługowe tworzenie przez działy biznesowe, które z nich korzystają. Dzięki temu dział IT nie będzie zaangażowany w przygotowanie każdej maszyny wirtualnej. Przy takiej skali opłacalna staje się również automatyzacja operacji dotyczących serwerów fizycznych. Nadal operacje związane z wdrożeniem nowego serwera będą nadzorowane przez administratora, ale nie będzie on musiał ręcznie wpisywać wszystkich komend. Poza tym skrypty kontrolujące wykonywanie i poprawność backupów można rozszerzyć o sprawdzanie poprawności konfiguracji.
Na przykład wirtualizacja sieci, stacji roboczych czy aplikacji to obszary interesujące dla integratorów. Przykładowo aż 70 proc. dużych firm w Polsce zapowiada w planach inwestycyjnych związanych z centrami danych wirtualizację desktopów (źródło: Veeam Availability). Urządzenia mobilne pracowników są coraz częściej wykorzystywane jako punkty dostępowe, na których – dzięki wirtualizacji – wyświetlane jest bezpieczne, spersonalizowane pod kątem danego użytkownika środowisko pracy. Za pośrednictwem wirtualnego pulpitu można korzystać z wcześniej zaakceptowanych przez firmę programów.
Również szeroko pojęty cloud computing w prawie każdym modelu bazuje nie tylko na rozwiązaniach do wirtualizacji serwerów, ale również sieci, desktopów i aplikacji. Dla integratorów oznacza to, że powiązanie ze sobą w jedną spójną ofertę usług i rozwiązań z obszarów wirtualizacji, mobilności oraz chmury może być nowym sposobem na zbudowanie głębszej relacji z klientem, a co za tym idzie na zwiększenie przychodów. Odbiorcami takiej oferty są różne podmioty, przede wszystkim z komercyjnego sektora usługowego, ale coraz częściej także placówki opieki zdrowotnej czy administracji publicznej.
Powoli rośnie zainteresowanie rozwiązaniami do wirtualizacji sieci czy pamięci masowych, ale nadal są one traktowane jako nowość. W związku z tym klienci często ograniczają się na razie do eksperymentowania z nimi w środowiskach testowych. Niemniej stanowią one bardzo ciekawą szansę dla integratorów. Dzięki SDS (Software Defined Storage) bez konieczności kupowania kolejnych urządzeń klient ma możliwość wykorzystania już posiadanych zasobów dyskowych, często różnych producentów. Spójnie zarządzane środowisko SDS oferuje nawet funkcje typowe dla macierzy dyskowych klasy korporacyjnej, jak migawki i thin provisioning.
Sebastian Kisiel
Wirtualizacja jest podstawą dla rozwiązań do zarządzania mobilnością w firmie. Mowa nie tylko o zarządzaniu samymi urządzeniami, czyli o MDM, które coraz częściej zaspokajają jedynie wycinek potrzeb klientów, ale przede wszystkim o bardziej rozbudowanych systemach klasy EMM. Obejmują one, oprócz MDM, także takie elementy jak zarządzanie aplikacjami mobilnymi (MAM) czy korporacyjne narzędzia do współdzielenia i synchronizacji plików (EFSS). Bez wirtualizacji w warstwie serwerowej, ale coraz częściej również wirtualizacji sieci takie rozwiązania nie mają szansy istnieć.
Artykuł Sztuka zarabiania na wirtualizacji pochodzi z serwisu CRN.
]]>