Artykuł Przełączniki potrzebne, jak nigdy wcześniej pochodzi z serwisu CRN.
]]>Przełączniki KVM mogą zapewnić sygnał wideo oraz sterowanie przy użyciu myszy i klawiatury poprzez sieć IP. Dlatego zwłaszcza teraz, gdy – w obliczu pandemii koronawirusa – zdalna praca stała się szczególnie ważna, okazują się bardzo wygodnym narzędziem do kontroli i obsługi komputerów uruchomionych w odległych lokalizacjach. Rozwiązania KVM działające w oparciu o protokół IP oferują – oprócz dużej skalowalności – także znaną z sieci komputerowych łatwość konfigurowania wdrażanych systemów. Nie oznacza to, że systemy KVM over IP kompletnie zastąpią tradycyjne rozwiązania. Chociaż wykorzystanie technologii IP zyskuje na popularności w tej branży, to integratorzy i ich klienci nie muszą rezygnować ze standardowych przełączników. Nadal nie brakuje zastosowań, w których świetnie się sprawdzają.
Co ważne, wciąż zwiększa się funkcjonalność KVM-ów. Ponieważ użytkownicy komputerów szybko przyzwyczajają się do wyższych standardów jakości, to oczekują ich także od przełączników. Dlatego poszukiwane są już nie tylko rozwiązania oferujące wideo w jakości HD zamiast obrazu w rozdzielczości SD, ale także takie, które zapewnią sygnał w standardzie Ultra HD 4K. Aby z jednej strony dotrzymać kroku postępowi technologicznemu, a z drugiej odpowiadać na potrzeby dużej elastyczności, rozwiązania KVM oferują wiele różnych opcji. Obsługują monitory o wysokiej rozdzielczości przez złącza HDMI, DVI i Display Port, ale także wciąż dają możliwość ich podłączenia przez VGA. Zapewniają również kontrolę nad urządzeniami peryferyjnymi USB, umożliwiając podłączenie napędów dyskowych, zestawów słuchawkowych, skanerów, paneli dotykowych, drukarek i innych urządzeń komunikujących się przez ten port. W rezultacie użytkownicy mogą łączyć się z komputerami bez obaw o ograniczenie funkcjonalności ich obsługi.
Wciąż niezbędne w centrach danych
Dzięki temu, że przełączniki KVM zapewniają dostęp do wielu komputerów z centralnej lokalizacji, to – mówiąc najprościej – administratorzy IT nie muszą biegać od jednego serwera do drugiego. Rozwiązanie to, podnosząc efektywność pracy działu IT, zwiększa też jego możliwości w radzeniu sobie ze złożonością operacji IT i nowymi wyzwaniami. KVM-y są także coraz częściej używane poza centrum danych – do obsługi różnego rodzaju zdalnych i rozproszonych środowisk obliczeniowych. Umożliwiając zdalne zarządzanie, rozwiązania KVM over IP dają kontrolę nad urządzeniami działającymi w wielu budynkach czy nawet w wielu krajach.
Nowe trendy, takie jak 5G, sztuczna inteligencja, chmura, przetwarzanie brzegowe, IoT, Przemysł 4.0 i przesyłane strumieniowo media, wymagają ogromnych zasobów obliczeniowych oraz pamięciowych. Generowane przez nowe usługi dane potrzebują kolejnych obiektów data center, kolejnych serwerów i macierzy dyskowych, a także sieci o większej przepustowości. Przedsiębiorstwa będą coraz częściej wykorzystywać przetwarzanie brzegowe (edge computing), co zwiększy popyt na mikro centra danych – skonteneryzowane boksy z kompletną infrastrukturą IT oraz gotowe do uruchomienia, wypełnione sprzętem szafy rackowe. Nawet jeśli przetwarzanie w chmurze publicznej stale rośnie, to organizacje nie będą chciały tracić kontroli nad wszystkimi swoimi danymi. Dlatego nie przestaną inwestować w chmurę prywatną wdrażaną lokalnie albo w kolokacji. Wszystkie te nowe serwery będą musiały być zarządzane, a ułatwią to przełączniki KVM.
Bezpieczeństwo w środowisku przemysłowym
Jest wiele sposobów wykorzystania przełączników KVM w zakładach produkcyjnych i innych środowiskach przemysłowych. W tego rodzaju otoczeniu komputery sterujące maszynami i procesami działają nierzadko w miejscach niebezpiecznych albo po prostu uciążliwych dla przebywających w nich ludzi. Dzięki wdrożeniu technologii KVM osoby zajmujące się kontrolą i obsługą tych komputerów mogą w bardziej komfortowych warunkach uzyskiwać do nich dostęp i konfigurować je bez ryzyka obrażeń czy negatywnego wpływu na wydajność pracy. Wykorzystując sieć, okablowanie miedziane lub światłowód oraz przełącznik KVM, można umieścić konsolę użytkownika w cichym i klimatyzowanym, a przede wszystkim bezpiecznym centrum kontroli.
Jeśli zostanie wykorzystane okablowanie CAT 5/6, to można przesyłać sygnał KVM do 150 m. W wypadku użycia światłowodu dystans może wynosić nawet do 20 km. Wykorzystanie światłowodu umożliwia dodatkowo instalowanie KVM nawet w bardzo agresywnych środowiskowo wdrożeniach. Dzięki ekstenderom i systemom przełączników macierzowych zdalne komputery są dostępne w sterowni tak, jakby znajdowały się w tym samym pomieszczeniu – bez opóźnień sygnału, utraty jakości i funkcjonalności.
Przełączniki KVM zapewniają również solidną ochronę i bezpieczeństwo w takich zastosowaniach, jak elektrownie. Dzięki wykorzystaniu KVM do bezpośredniego połączenia komputerów z klawiaturą, monitorem i myszą, można eliminować ryzyko związane ze sterowaniem urządzeniami docelowymi poprzez internet. Ograniczanie cyberzagrożeń jest szczególnie ważne w przypadku infrastruktury krytycznej.
KVM-y w produkcji mediów cyfrowych
Grafikom, projektantom i innym profesjonalistom zajmującym się mediami cyfrowymi technologia KVM oferuje możliwość wdrażania wydajnych i złożonych środowisk komputerowych. Mogą tworzyć w nich swoje projekty – od modelowania 3D przez symulacje po produkcję i edycję audio i wideo. To istotne zwłaszcza, że nigdy nie było takiego zapotrzebowania na nowe treści jak obecnie (a w przyszłości może być ono tylko większe). Dlatego firmy tworzące „kontent” i zarządzające nim, studia zajmujące się postprodukcją mediów cyfrowych oraz nadawcy starają się rozbudowywać i modernizować posiadaną infrastrukturę. Chcą w ten sposób sprostać zapotrzebowaniu na jeszcze więcej treści, jeszcze większą przepustowość i rozdzielczość obrazu.
Nadawcy, którzy wynoszą swój sprzęt poza siedzibę firmy w celu zwiększenia przestrzeni produkcyjnej, muszą zapewnić zdalny dostęp do niego i zagwarantować jak najmniejsze opóźnienia połączeń. Dlatego w ostatnich latach wśród integratorów i ich klientów obserwowano wzrost popytu na rozwiązania KVM, spowodowany coraz większym wykorzystaniem sprzętu komputerowego przez nadawców i środowiska post-produkcyjne.
Nic dziwnego, skoro przełączniki KVM usprawniają przepływ pracy i dają nadawcom dostęp w czasie rzeczywistym do dowolnego serwera z dowolnego stanowiska użytkownika. Projektantom i edytorom w środowiskach post-produkcyjnych zapewniają wymagany komfort pracy w cichym otoczeniu, z dala od głośnych komputerów. Dają też możliwość pracy z wymaganym w danej chwili oprogramowaniem i sprzętem z jednej lub wielu stacji roboczych.
Zarządzanie kioskami cyfrowymi
Cyfrowe kioski samoobsługowe upowszechniły się w ostatnich latach jako wygodna i w dłuższej perspektywie ekonomiczna metoda obsługi klienta, dokonywania transakcji, zakupów i udzielania informacji. Przykładem mogą być automaty do odpraw na lotniskach i w hotelach, bankomaty, kasy samoobsługowe w marketach czy automaty biletowe.
Większość kiosków to w gruncie rzeczy w pełni funkcjonalne komputery, które wymagają zarządzania, utrzymania i rozwiązywania problemów. Dzięki użyciu przełączników KVM over IP firmy zarządzające kioskami nie muszą już wysyłać techników w teren, a więc do miejsc, w których postawiono te urządzenia. Wszystkie wymienione wcześniej zadania można wykonać przez internet. To nie tylko znacząco obniży koszty, ale także zwiększy ciągłość działania kiosku, a to z kolei przełoży się na poprawę satysfakcji klienta i korzystnie wpłynie na wyniki finansowe firmy. Dodatkowo, z uwagi na to, że kioskami można sterować przez internet, ich użytkownicy mogą zmniejszać zużycie energii przez zdalne wyłączanie maszyn w tych godzinach, w których nikt ich nie używa.
Każdy producent rozwiązań zdalnego dostępu szuka swojego miejsca na ciągle zmieniającym się rynku. My w przyszłym roku chcemy skupić się na laboratoriach oraz na brzegu sieci. Cześć naszych konkurentów odeszła od klasycznej serwerowni i skupiła się na rynku Audio-Video. Z racji tego, że nasz główny biznes bazuje na rozwiązaniach dla Edge i Data Center, tam pozostaniemy. Dostrzegamy potrzebę uzyskiwania zdalnego dostępu za pomocą sieci komórkowych, czyli 4G, a już niedługo 5G. Obecnie wprowadzane rozwiązania, a więc serwery konsol z wbudowanym modemem 4G, jak również nowa generacja przełączników KVM, będą opierać się na tym dostępie. Zapewnione w ten sposób pasmo będzie już wystarczające do przesyłania wysokich rozdzielczości, nawet 4K. W środowisku serwerowym nie są one jeszcze potrzebne , ale za kilka lat i tam mogą stać się standardem. W związku z pandemią chcemy zaproponować rozwiązania ułatwiające pracę działów wsparcia technicznego, które teraz mają więcej wyzwań niż kiedykolwiek wcześniej.
Stabilny biznes
Chociaż KVM-y nie są nową technologią, to wymienione przykłady pokazują, że tego rodzaju przełączniki wciąż są ważnym i cennym narzędziem zarówno w serwerowniach, jak i w przypadku wielu innych sposobów ich użycia. Gdy przybywa danych i rośnie potrzeba tworzenia cyfrowych treści, a jednocześnie coraz to nowe aplikacje są integrowane w cyfrowych kioskach, rozwiązania KVM nie przestaną odgrywać kluczowej roli w zarządzaniu i wsparciu IT. Z tego powodu, że działają w warstwie sprzętowej, to dysponują pewnymi przewagami nad narzędziami opartymi na oprogramowaniu, takimi jak aplikacje zdalnego dostępu. Dostęp na poziomie sprzętu zapewnia nie tylko większą funkcjonalność sterowania, ale także solidniejsze opcje bezpieczeństwa. Dlatego analitycy rynkowi nie spodziewają się, by rynek KVM miał się w nadchodzących latach kurczyć. Integratorzy, którzy włączają do swojej oferty narzędzia KVM powinni przy tworzeniu projektu rozważyć nie tylko cenę rozwiązania, ale też takie czynniki, jak oczekiwania klienta dotyczące wydajności oraz długoterminowe cele, jakie chce on osiągnąć.
Wraz z integracją coraz większej ilości różnych technologii, środowiska takie jak centra kontroli czy data center stają się coraz bardziej złożone oraz wielofunkcyjne. Dotyczy to zwłaszcza operatorów, którzy muszą monitorować oraz zarządzać wieloma procesami jednocześnie. Operatorzy zarządzają też sygnałami KVM. Obecnie stosuje się zaawansowane oraz łatwe do wdrożenia przełączniki oraz systemy typu KVM matrix, które nie tylko gwarantują wysoką elastyczność podczas wdrażania, ale także bezpieczeństwo transmisji sygnałów klawiatury, wideo i myszy oraz peryferii, chociażby napędów USB. Rozwiązania te są bardzo istotne z punktu widzenia wielu branż, w tym finansowej, medycznej czy produkcyjnej. Nie można również zapominać o instytucjach publicznych i urzędach, które w obecnej sytuacji muszą zagwarantować ciągłość pracy zdalnej przy jednoczesnym zachowaniu bezpieczeństwa danych dotyczących obywateli.
Artykuł Przełączniki potrzebne, jak nigdy wcześniej pochodzi z serwisu CRN.
]]>Artykuł Zarządzanie w stylu all in one pochodzi z serwisu CRN.
]]>– Są tam najróżniejsze platformy na serwerach i urządzeniach końcowych, a każda potrzebuje specjalisty, który ją zna i potrafi dbać o utrzymanie sprzętu – mówi Bogdan Lontkowski, dyrektor regionalny na Polskę, Czechy, Słowację i kraje bałtyckie w Ivanti.
Klienci powinni więc docenić możliwość korzystania ze scentralizowanej bazy danych, która zapewnia usystematyzowanie całości procesów obsługi IT w przedsiębiorstwie. Rynkowym standardem jest dostarczanie usług monitorowania i nadzoru nad siecią, zarządzania stacjami roboczymi i działaniami ich użytkowników, ochrony danych i obsługi zgłoszeń serwisowych. Możliwości rozwiązania all in one są bardzo duże – od zarządzania sprzętem i licencjami na oprogramowanie po obsługę uprawnień użytkowników oraz monitorowanie ich aktywności na sprzęcie firmowym.
– Śledzenie działań użytkowników oczywiście nie służy do inwigilacji, ale utrzymywania standardów bezpieczeństwa. Pozyskane informacje wykorzystywane są do budowania polityki dostępu do aplikacji i internetu – wyjaśnia Marcin Matuszewski, ekspert pomocy technicznej w Axence.
W doborze odpowiedniego systemu, poza najwyższymi standardami bezpieczeństwa, bardzo ważna jest też otwartość narzędzia. Czy obsługuje więcej systemów operacyjnych, czy tylko Windows? Czy można monitorować dowolne zewnętrzne aplikacje (np. systemy ERP lub autorskie systemy pisane pod kątem potrzeb konkretnego klienta) oraz czy można tworzyć samemu procedury monitoringu i automatyzacji?
– Taki system wymaga więcej pracy na etapie powdrożeniowym, ale zapewni na lata solidną podstawę do podniesienia bezpieczeństwa i efektywności całej infrastruktury IT – podkreśla Andrzej Tarasek, dyrektor w firmie Vida.
Co my tu mamy?
Podstawą oprogramowania do zarządzania infrastrukturą i jej monitoringu jest inwentaryzacja stanu posiadania. Stanowi ona punkt wyjścia do administrowania całym środowiskiem, a więc działań operacyjnych. Z informacji uzyskanej w ramach inwentaryzacji mogą wynikać też przedsięwzięcia związane z zakupami, serwisem, jak również kontrolą poszczególnych składników systemu informatycznego. Wpisywać się w to będą m.in. narzędzia do zarządzania posiadanym oprogramowaniem i licencjami, czyli SAM (Software Asset Management).
Bardzo ważnym składnikiem pakietów do zarządzania jest dystrybucja oprogramowania. Automatyzacja instalowania i odinstalowywania systemów operacyjnych oraz programów odgrywa kluczową rolę przy odciążaniu działów IT. Większe przedsiębiorstwo o rozproszonej infrastrukturze nie poradzi sobie bez możliwości przygotowywania paczek oprogramowania (często bardzo złożonych), które można następnie rozprowadzić po wszystkich komputerach. Taka masowa dystrybucja wiąże się jednak z ryzykiem dostarczenia oprogramowania, które będzie powodować konflikty, a nawet zawierać złośliwy kod. Dlatego powinien ją poprzedzać etap wstępny, polegający na wykorzystaniu środowiska testowego w firmie.
W ramach kontroli obciążenia i temperatury procesorów, wykorzystania pamięci RAM, zajętości dysków – gdy zostały ustawione wartości progowe – dział wsparcia może otrzymywać alerty o ich przekroczeniu i odpowiednio na nie reagować. Będzie wtedy działał bardziej prewencyjnie (zapobiegając przestojom) niż reaktywnie (naprawiając systemy).
Z przejściem od reaktywnego do prewencyjnego działania wiąże się wykorzystanie tych funkcji oprogramowania do zarządzania i monitorowania, które będą wspomagać obsługę kolejnych linii wsparcia w firmie (helpdesku i serwisu).
– Zarządzanie incydentami, wnioskami, katalogiem usług to kolejne elementy, które automatyzują i odciążają pracę działów IT – tłumaczy Bogdan Lontkowski.
Niezbędnym narzędziem jest zdalny pulpit, który umożliwia administratorowi przejęcie zdalnej kontroli nad komputerem w celu przesłania plików, skonfigurowania urządzenia i oprogramowania lub usunięcia usterek. To oszczędność czasu i pieniędzy, bo nie trzeba za każdym razem posyłać pracownika tam, gdzie pojawił się problem.
Marcin Matuszewski
ekspert pomocy technicznej, Axence nVision
Wzrasta świadomość osób decyzyjnych. Administratorzy chcą wdrażać narzędzia do zarządzania w przedsiębiorstwach różnej wielkości, z sektora komercyjnego oraz publicznego. Rozmawiamy coraz częściej z właścicielami i menedżerami firm. Ich postrzeganie tego typu produktów jest zgoła odmienne niż administratorów, ale wspólnym mianownikiem jest efektywność operacyjna firmy. Oprogramowanie wykorzystywane jest podczas wdrażania polityki bezpieczeństwa, systemów ISO, pomaga też w spełnianiu wymogów RODO.
Elementem zarządzania urządzeniami może być także kontrola ich portów. Blokowanie możliwości użycia niedozwolonych pamięci przenośnych i innych zewnętrznych urządzeń zapobiegać będzie zainfekowaniu systemu informatycznego złośliwym oprogramowaniem oraz chronić przed wyciekiem informacji (DLP).
Rośnie liczba i przybywa rodzajów urządzeń wykorzystywanych w firmach, a oprogramowanie do zarządzania i monitorowania powinno radzić sobie z nimi wszystkimi – desktopami, notebookami, smartfonami oraz tabletami. I to zarówno z tymi znajdującymi się wewnątrz firmowej sieci, jak i funkcjonującymi na zewnątrz, gdy pracownicy działają zdalnie.
– Bez względu na to, gdzie znajduje się urządzenie, oprogramowanie do zarządzania powinno umożliwiać zweryfikowanie jego zgodności ze standardami przyjętymi w firmie oraz wyegzekwowanie ich w przypadku braku tej zgodności – twierdzi Bogdan Lontkowski.
Podatności to otwarte drzwi do systemu
Wiedza o stanie posiadania jest kluczowa także z powodu bezpieczeństwa. Jeśli firma nie wie, czym dysponuje zarówno w obszarze sprzętu, jak i oprogramowania, to nie jest w stanie ocenić, z jakimi zagrożeniami może mieć do czynienia. Nie podejrzewa, ile drzwi w jej systemie informatycznym może być otwartych dla napastników. Przy pomocy narzędzi do inwentaryzacji wykryte zostanie np. oprogramowanie, które zostało w sposób niekontrolowany zainstalowane przez użytkowników komputerów i może zagrażać bezpieczeństwu systemu informatycznego.
Wyjątkową rolę pełni zarządzanie podatnościami (lukami) w sieci lokalnej, zdalnej, systemie operacyjnym i aplikacjach. W tym miejscu warto wspomnieć, że poprawka zapobiegająca atakowi ransomware WannaCry była dostępna kilka miesięcy przed tym, zanim on nastąpił. Jego zasięg pokazał, jak dużym problemem jest niezaktualizowane oprogramowanie. Ujawnił brak procedur, skalę zaniedbań i to, że nie używa się powszechnie narzędzi, które brakowi poprawek by zapobiegały.
– Rozwiązania do ochrony punktów końcowych skupiają się na eliminowaniu zagrożeń – złośliwego oprogramowania, które dostało się do sieci. Ale nie usuwają luk, które wykorzystują wirusy i exploity – mówi Michał Szubert, Area Sales Manager w Connect Distribution.
Sebastian Wąsik
Country Manager, Baramundi Software
W przypadku oprogramowania do zarządzania infrastrukturą IT i jej monitorowania rośnie znaczenie narzędzi z obszaru bezpieczeństwa. Klienci przestali postrzegać zabezpieczanie infrastruktury jako wyłącznie koszt i są coraz bardziej zainteresowani jej ochroną. Odnotowujemy zwiększony popyt na moduły, które odpowiadają za skanowanie podatności w środowisku informatycznym i dystrybucję aktualizacji bezpieczeństwa. Jeśli większość zagrożeń, w tym ransomware, wykorzystuje znane luki w oprogramowaniu, to ich skuteczne usuwanie staje się pierwszą potrzebą.
Jeśli nawet dostawca systemu operacyjnego zapewnia mniej lub bardziej sprawną dystrybucję łat programowych, to wciąż pozostaje wiele aplikacji, które bez zainstalowanych poprawek „zapraszają” cyberprzestępców do spenetrowania firmowych zasobów (przez lata najbardziej znanymi przykładami takich programów były niektóre produkty Adobe i Java). Dlatego tak ważne jest posiadanie narzędzia, które wyszukuje i eliminuje podatności, zapobiegając atakowi. Automatycznie i masowo, bo gdy administruje się wieloma komputerami, ręczne usuwanie luk nie wchodzi w grę.
Zarządzanie podatnościami – stosowane zarówno przed, jak i po incydencie naruszenia bezpieczeństwa – może być jedną z wielu funkcji rozbudowanego oprogramowania do zarządzania infrastrukturą, jest też dostępne w formie osobnych narzędzi, stworzonych tylko do tego. Dostawcy tych rozwiązań przekonują, że ich produkty zapewniają większą kontrolę nad aktualizacjami niż mechanizmy oferowane przez producentów systemów operacyjnych i aplikacji.
Narzędzia tylko dla największych?
Producenci zintegrowanych pakietów do zarządzania i monitorowania protestują, gdy sugeruje się im, że ich oprogramowanie jest tylko dla dużych i bogatych firm. Marcin Matuszewski zwraca przy tym uwagę, że zaletą narzędzi all in one jest ich skalowalność – niezależnie od wielkości infrastruktury wdrożenie wygląda tak samo. Jeśli liczba pracowników wzrośnie, nie będzie większych trudności z objęciem ich monitoringiem.
– Pamiętajmy, że próg wejścia dla tego typu oprogramowania tak naprawdę nie jest wysoki, a korzyści płynące z rozwiązania umożliwiają zwiększenie wydajności pracy oraz efektywności wykorzystanych zasobów – tłumaczy ekspert Axence.
Przykładowo zdalny dostęp administratorów do komputerów pracowników i zasobów firmy połączony z modułem helpdesk umożliwia zoptymalizowanie czasu pracy wsparcia i oszczędzenie wielu godzin roboczych. Obserwowany jest też wzrost wydajności pracowników, na co zwracają uwagę menedżerowie w firmach.
Choć ze zintegrowanych narzędzi mogą korzystać mniejsze przedsiębiorstwa, to jest pewien poziom, poniżej którego trudno mówić o zwrocie z inwestycji. Ten ostatni okazuje się tym większy, im bardziej rozbudowane jest środowisko, im więcej jest urządzeń końcowych. Gdy zsumuje się oszczędności ze zautomatyzowanej obsługi każdego z nich, w grę wchodzą konkretne pieniądze.
Rachunek zwrotu z inwestycji jest sprawą bardzo indywidualną. Większy zysk z zakupu rozbudowanego narzędzia będzie miała firma rozproszona geograficznie, z wieloma oddalonymi od siebie oddziałami, w której każda interwencja informatyka wiąże się z koniecznością użycia samochodu i wieloma godzinami spędzonymi na załatwianiu sprawy. Mniej oszczędzi ta, która cały swój system informatyczny mieści na jednym piętrze w budynku.
– Najmniejszy klient posługujący się naszym rozwiązaniem ma tylko kilkanaście stacji roboczych, ale są one rozproszone na kilku wyspach na północy Niemiec – mówi Sebastian Wąsik, Country Manager na Polskę w Baramundi Software.
Jak tłumaczy przedstawiciel producenta, nie ma żadnych technicznych ograniczeń dla zastosowania oprogramowania w przedsiębiorstwie dowolnej wielkości. Jednak jeśli weźmie się pod uwagę zwrot z inwestycji, to klientowi opłaci się jego użycie, gdy będzie dysponować nie mniej niż 50 stacjami roboczymi, a najlepiej, gdy będzie ich kilkaset.
Z badania CATI przeprowadzonego na zlecenie Axence wśród szefów i specjalistów IT wynika, że 60 proc. polskich firm z grupy docelowej nie wykorzystuje narzędzi informatycznych do centralnego zarządzania i monitorowania sieci. Otwiera to duże możliwości dla producentów i sprzedawców tego typu rozwiązań.
A jak ktoś nie chce płacić?
Są też klienci, którzy – nie chcąc wydawać pieniędzy na oprogramowanie do zarządzania – skłaniają się ku użyciu darmowego rozwiązania open source (oferta w obszarze zarządzania i monitoringu jest dość bogata). Komercyjni dostawcy rozbudowanego oprogramowania odpowiadającego za wiele aspektów zarządzania infrastrukturą przekonują jednak, że trudno znaleźć darmowe narzędzia o podobnie szerokim spektrum zastosowania.
Darmowe rozwiązania nie zawsze są stabilne i dobrze udokumentowane, co wobec mnogości funkcji stanowi problem. Wraz z rozwojem firmy konieczne może stać się przekonfigurowanie lub porzucenie takich narzędzi, co wiąże się ze stratą wcześniej zebranych informacji. Wsparciem dla produktów open source zazwyczaj zajmuje się internetowa społeczność, co nie zawsze gwarantuje sprawne i szybkie rozwiązywanie problemów.
– Wraz z komercyjnym narzędziem klienci zyskują wsparcie i gwarancję, że system był testowany w każdym z przewidzianych scenariuszy. Trzeba też pamiętać, jak ważne są aktualizacje bezpieczeństwa – mówi Andrzej Tarasek.
W badaniach Axence okazało się, że sporo klientów decyduje się na tworzenie własnego oprogramowania do monitorowania infrastruktury i wspierania użytkowników. Producent zwraca jednak uwagę, że autorskie aplikacje często sprawdzają się tuż po ich stworzeniu, później natomiast pojawiają się kłopoty z utrzymaniem i rozwojem takich programów.
– Ryzyko związane z użyciem narzędzi open source jest też takie, że informatyk w firmie, który zajmował się jego dostosowywaniem i modyfikowaniem pod kątem indywidualnych potrzeb, może zmienić pracę i odejść. Dalsze ich wykorzystanie stanie wtedy pod znakiem zapytania – ostrzega Bogdan Lontkowski.
Wszyscy rozmówcy CRN Polska podkreślają, że polski rynek jest bardzo dojrzały. Klienci są świadomi swoich potrzeb. Wiedzą, co chcą uzyskać, i potrafią dokładnie wypytać dostawców, czy ci są w stanie im to zapewnić. Najczęściej chcą rozwiązywać problemy, na które odpowiedź wprost stanowi oprogramowanie do zarządzania i monitorowania infrastruktury IT. Dlatego rozmowa z nimi jest łatwa do momentu, gdy nie zejdzie na temat pieniędzy. I trudno się dziwić – budżety na informatykę to najsłabsze ogniwo także w biznesie oprogramowania do zarządzania.
Zarządzanie jako usługa
Dostawcy chcieliby, żeby biznes resellera polegał nie tylko na sprzedaży oprogramowania klientowi końcowemu, ale także na świadczeniu zewnętrznych usług z wykorzystaniem ich narzędzi. Zwłaszcza gdy usługodawca stworzy z nich platformę, za pomocą której może obsługiwać wielu klientów. Nawet firmy, które mają jedynie po 10–20 komputerów, a nie mają własnych informatyków. Oprogramowanie pozwoli usługodawcy wykonywać zdalnie większość prac dla wielu tego rodzaju klientów. W końcu wykorzystanie narzędzi do zarządzania i monitoringu infrastruktury w modelu MSP (Managed Service Provider) wydaje się być czymś naturalnym.
Jednak zdaniem Bogdana Lontkowskiego na razie nie jest on zbyt popularny wśród mniejszych resellerów i stosują go raczej więksi integratorzy.
– Uświadamianie możliwości świadczenia usług, a nie tylko sprzedaży oprogramowania czy infrastruktury to praca od podstaw. Trzeba pokazać korzyści, jakie daje obsługa klientów, zarówno za pomocą oprogramowania, które zakupił sam klient, jak i takiego, które może nabyć sam reseller, by rozwinąć swoją ofertę – tłumaczy przedstawiciel Ivanti.
Jak twierdzi Andrzej Tarasek, firmy działające jako MSP i świadczące usługi outsourcingu IT oczekują narzędzi prostych w obsłudze, bezpiecznych, otwartych i skalowalnych. Mają być takie, bo jeśli dziś ISP obsługują 500 urządzeń końcowych, to za rok chcą zarządzać 5 tysiącami. W takim modelu biznesowym tylko maksymalna automatyzacja procesów zapewnia generowanie marży. Innymi słowy, im więcej zrobi system, a nie kolejni pracownicy, tym więcej zarobi usługodawca.
– Jak zapewnić odpowiednie SLA w sytuacji, gdy nie możemy objąć monitoringiem i kontrolą całego środowiska, za które odpowiadamy? Jeśli mamy wybierać między systemem monitoringu, zarządzania i automatyzacji, przy użyciu którego dwóch pracowników obejmie kontrolą 2 tys. stacji roboczych lub 200 serwerów, a pięcioma narzędziami, do których potrzeba dziesięciu ludzi, to decyzja jest prosta – uważa przedstawiciel Vidy.
Obsługa klientów może się odbywać z wykorzystaniem chmury, która doskonale nadaje się do uruchomienia platformy usługowej. Jednak oferta „as a Service”, której znaczenie rośnie na zachodnich rynkach, w naszym kraju wciąż znajduje się w fazie początkowej.
– W Polsce jeszcze niewiele firm korzysta kompleksowo ze środowiska chmurowego, tym bardziej że dostępne na rynku modele on-premise sprawiają wrażenie przystępnych cenowo – zauważa Marcin Matuszewski.
Trendy związane z chmurą przychodzą do nas z opóźnieniem. Czy to dobrze, czy źle? Zdania są podzielone. Bez wątpienia pewna zwłoka daje szansę na uniknięcie błędów, jakie popełniają pionierzy. Ale to nieuniknione – wraz z rozwojem technologii cloud computingu i popularyzacją tych rozwiązań w przedsiębiorstwach, model zarządzania IT będzie ewoluował w kierunku chmury.
Andrzej Tarasek, dyrektor, Vida
Rozwiązania do zarządzania i monitoringu sprawdzą się zarówno w większej, jak i mniejszej firmie. Kluczem jest wpływ IT na jej działalność. Gdy jest znaczny, wdrożenie takiego systemu staje się koniecznością. Biorąc pod uwagę nakłady na wdrożenie oraz stosunek efektu do ceny, dobry system do monitoringu i zarządzania można wdrożyć już od 100 urządzeń końcowych. Z drugiej strony może się okazać, że 20 kluczowych serwerów też będzie wymagać korzystania z takiego narzędzia, a informatycy z firmy z tysiącem stacji preferują ręczną obsługę wszystkiego. Bo firmowy dział IT bywa często barierą. „Gdy wdroży się taki system, my będziemy już niepotrzebni” – takie myślenie jest powszechne, dlatego warto rozmawiać z menedżerami, a nie tylko informatykami. Dział IT powinien wnosić wartość dodaną do firmy, a nie występować jedynie w roli „strażaka”. Trudno podnosić efektywność, kiedy codzienne, często powtarzające się zadania zabierają 80 proc. czasu pracy. Do tego w porównaniu z dzisiejszymi stawkami wynagrodzeń specjalistów ceny takich systemów nie są wygórowane.
Artykuł Zarządzanie w stylu all in one pochodzi z serwisu CRN.
]]>