Artykuł MSP potrzebują wirtualizacji pochodzi z serwisu CRN.
]]>Firmy, w zależności od wielkości, oczekują różnych korzyści z przeprowadzenia wirtualizacji. Małe i średnie przedsiębiorstwa stawiają przede wszystkim na poprawę efektywności wykorzystania zasobów informatycznych i możliwość ograniczenia wydatków związanych z infrastrukturą IT. Jeśli firma jest w fazie wzmożonego rozwoju, wielokrotnie konieczne jest wdrożenie dodatkowych systemów. Dzięki wirtualizacji można uniknąć różnych wydatków, chociażby związanych z zakupem dodatkowych serwerów, lepiej wykorzystując posiadane zasoby. Natomiast w większych firmach na znaczeniu zyskują inne zalety wirtualizacji serwerów, np. ograniczenie kosztów zasilania. Dla korporacji priorytetem jest też odpowiednie zarządzanie zasobami i ich dostępność.
Informatycy z sektora MSP za największe wyzwanie dla działów IT uznają realizację coraz większej liczby projektów w ramach niezmieniającego się budżetu. Drugim problemem jest konieczność przechowywania szybko zwiększającej się ilości danych. Roczny przyrost wynoszący ponad 30 proc. nie jest niczym szczególnym. W takim tempie w ciągu 2,5 roku podwaja się ilość potrzebnej przestrzeni dyskowej. To powoduje większe wydatki na macierze.
Wirtualizacja serwerów ułatwia zmierzenie się z tymi wyzwaniami. Badanie przeprowadzone przez Aberdeen Group pokazuje, że małe i średnie firmy po zastosowaniu wirtualizacji skróciły o ponad połowę czas potrzebny na instalowanie nowych aplikacji, a przerwy w ich pracy zostały zredukowane o 30 proc. Korzyści jest zresztą znacznie więcej. Dzięki tej technologii zdecydowanie ogranicza się ilość potrzebnego sprzętu, co prowadzi do obniżenia całkowitych kosztów utrzymania infrastruktury (TCO). Przyczyniają się do tego nie tylko niższe wydatki na inwestycje, ale również obniżone rachunki za zasilanie i chłodzenie. Upraszcza się też zarządzanie infrastrukturą IT.
Wirtualizacja umożliwia również optymalizację wykorzystania dostępnych zasobów, przede wszystkim mocy obliczeniowej. Konsolidacja aplikacji (średni współczynnik wynosi 10 maszyn wirtualnych na jednym serwerze fizycznym) prowadzi do kilkakrotnego zwiększenia wykorzystania mocy obliczeniowej. Co ciekawe, według analityków z Aberdeen średnie obciążenie serwerów po wirtualizacji wynosi w MSP 45 proc., podczas gdy producenci rekomendują wykorzystanie na poziomie 80 proc. Warto też zwrócić uwagę na możliwość przenoszenia wirtualnych maszyn między serwerami bez przerywania ich pracy. W okresach mniejszego obciążenia można przenieść aplikację na mniejszą liczbę serwerów, a pozostałe na ten czas automatycznie wyłączyć.
W przeciwieństwie do firm IT i osób pasjonujących się nowymi technologiami, klienci nie interesują się nowymi funkcjami czy udoskonaleniami systemów, lecz poszukują rozwiązania swoich problemów. Na tym więc powinni skupiać się resellerzy w rozmowach z klientami, a w ramach przedstawionej oferty wirtualizacja powinna być tylko jednym z elementów – obok infrastruktury sprzętowej, na której dane rozwiązanie będzie działać.
Jak zaprojektować rozwiązanie wirtualizacyjne odpowiednie do potrzeb firmy z sektora MSP? Pierwszy sposób polega na wykorzystaniu okazji, jaką jest zainteresowanie klienta kupnem nowych serwerów, gdy stoi on przed koniecznością wymiany dotychczasowego, przestarzałego sprzętu lub planuje zastosowanie nowego systemu operacyjnego. Praktyka dowodzi, że klienci w takich sytuacjach często wirtualizują swoje środowisko. Dlatego warto razem z serwerami zaproponować oprogramowanie do wirtualizacji. Nabywcę powinny przekonać korzyści płynące z wykorzystania tej technologii, takie jak: redukcja liczby serwerów, oszczędność energii, możliwość stosunkowo łatwego stworzenia mechanizmów wysokiej dostępności (HA) i przywracania systemów po awarii (DR).
Po drugie, warto wziąć pod lupę klientów, dla których ważny jest backup i procedury disaster recovery, a także firmy dążące do podniesienia dostępności aplikacji. Doskonałym argumentem są w tych przypadkach finanse. Stworzenie, z wykorzystaniem wirtualizacji, systemu zapewniającego wysoką dostępność i umożliwiającego szybkie przywrócenie aplikacji po awarii jest znacznie tańsze niż budowanie klastrów czy drugiego, zapasowego ośrodka obliczeniowego. W środowisku wirtualnym przywracanie do działania systemów i aplikacji jest łatwiejsze i można do tego używać różnego sprzętu. To bardzo użyteczne w przypadku awarii sprzętowych czy katastrof.
Wirtualizacją będą zainteresowani także klienci, którzy nadal chcą używać starszych systemów operacyjnych i aplikacji bądź też nie mają możliwości ich aktualizacji. Z powodu starzejącego się sprzętu sytuacja wymaga działania (np. kończy się wsparcie techniczne), ale aktualizacja systemu operacyjnego i aplikacji jest niepraktyczna. Klient ryzykuje więc ciągłość działania oprogramowania pracującego na starym sprzęcie. Z drugiej strony grozi mu ryzyko związane z przenoszeniem aplikacji do nowego środowiska. Rozwiązaniem problemu jest wirtualizacja, która umożliwia łatwe przeniesienie kopii działającego serwera do środowiska wirtualnego i przetestowanie, jak aplikacja się w nim zachowuje. Jeśli testy wypadną poprawnie, kopię można uruchomić jako produkcyjną i pozbyć się starego sprzętu.
Rynek wirtualizacji serwerów
Przed kilku laty VMware wypracował sobie pozycję niekwestionowanego lidera na rynku wirtualizacji serwerów, z udziałem przekraczającym w szczytowych momentach 80 proc. Z biegiem czasu wyrosła mu silna konkurencja i obecnie jego udział wynosi globalnie ok. 56 proc. W Ameryce Łacińskiej, jak podaje IDC, liderem rynku jest już Hyper-V (44 proc.). Podobne wnioski płyną z analizy magicznych kwadrantów Gartnera z ostatnich kilku lat. VMware, niegdyś samotny lider w kwadracie liderów, obecnie ma towarzystwo w postaci Microsoftu. Warto dodać, że w 2013 r. z kwadrantu liderów wypadł Citrix. W badaniu Gartner uwzględnia jeszcze trzy firmy: Oracle, Parallels i Red Hat.
Jak już wspomnieliśmy, oprogramowanie do wirtualizacji często jest sprzedawane przy okazji wymiany serwerów. Rozpoczęcie takiego projektu może też stanowić pretekst do zakupu nowych serwerów, zoptymalizowanych pod kątem wirtualizacji. Oferta sprzętu jest bardzo szeroka – oprócz maszyn kasetowych i stelażowych na rynku znajdziemy rozwiązania konwergentne, łączące serwery, pamięć masową i przełączniki sieciowe zamknięte w jednej obudowie. Producenci serwerów mają umowy z dostawcami platform wirtualizacyjnych, w ramach których oferują pakiety sprzętu i oprogramowania. To może być dobra propozycja dla firm szukających oszczędności.
Bardzo ważnym elementem infrastruktury wirtualnej jest współużytkowana, sieciowa pamięć masowa, dostępna dla serwerów przez protokół iSCSI lub Fibre Channel. W sektorze MSP wiele firm nie potrzebuje takich urządzeń, dopóki nie zacznie korzystać z wirtualizacji. Dla resellera jest to więc szansa na sprzedaż dodatkowego sprzętu, przy okazji oferowania rozwiązań do wirtualizacji.
Badania przeprowadzone przez Techaisle pokazują, że 60 proc. firm MSP uznaje swoje wdrożenia wirtualizacji za sukces. Tylko 2 proc. twierdzi, że zakończyły się kompletnym niepowodzeniem, natomiast 38 proc. deklaruje częściowy sukces. Po skutecznym wdrożeniu wirtualnej infrastruktury klienci mogą być zainteresowani implementacją dodatkowych funkcji i stworzeniem chmury prywatnej. Wiele firm korzystających ze zwirtualizowanych serwerów decyduje się następnie na wirtualizację desktopów (odwrotna kolejność raczej się nie zdarza).
Jest kilka głównych przyczyn, które powodują, że projekty wirtualizacji serwerów lub desktopów w MSP mogą zakończyć się niepowodzeniem. Podstawową są nieprzewidziane wydatki związane z koniecznością dokupienia licencji i ewentualnych szkoleń dla przyszłych administratorów. Wdrożenia wirtualizacyjne nie należą do najtańszych (licencje, serwery, macierze dyskowe), chociaż prawie zawsze się zwracają. Czasami ten zwrot nie ma postaci dających się obliczyć oszczędności, ale ujawnia się na przykład w znacznie zwiększonej dostępności systemów lub podniesieniu ich bezpieczeństwa (taki scenariusz jest typowy dla środowisk wirtualizacji desktopów).
Często też pojawia się problem niedostatecznego doświadczenia administratorów wirtualnych środowisk zatrudnionych u klienta. Wirtualizacja oznacza bowiem duży stopień skomplikowania centrów danych. To pole do popisu dla doświadczonych resellerów, którzy swoją wiedzą mogą wesprzeć klientów.
Krzysztof Waszkiewicz
VMware Mirage, umożliwiający wirtualizację desktopów i ich centralizację, jest przystosowany do dużych środowisk, ale sprawdza się także w bardzo małych firmach. W takim przypadku zwraca się uwagę nie na optymalizację kosztów i standaryzację, która wynika z tych rozwiązań, lecz na bardzo szczególne możliwości techniczne. Najlepszym przykładem może być kiosk internetowy w oddziale banku, przeznaczony dla klientów. Takie „stanowisko pracy” trzeba należycie zabezpieczyć, a w razie awarii szybko przywrócić jego pierwotny stan.
Ostatnia z poważniejszych bolączek to brak planowania. Należy zacząć od precyzyjnego zdefiniowania celów wirtualizacji, ponieważ ich brak znacznie zwiększa prawdopodobieństwo niepowodzenia. Później koniecznym (a często pomijanym) etapem jest przeprowadzenie testów kompatybilności między sprzętem i aplikacjami. Na końcu warto także sprawdzić, czy posiadane licencje na aplikacje pozwalają na uruchamianie ich w środowisku wirtualnym i czy nadal będzie można oczekiwać wsparcia twórców tego oprogramowania.
Firmy wciąż chętniej wirtualizują serwery niż desktopy, ale zainteresowanie przeniesieniem środowiska pracy użytkowników do centrów danych stale rośnie. Szczególnie w małych i średnich przedsiębiorstwach jest to rzadko stosowane rozwiązanie, ale w pewnych sytuacjach dobrze się sprawdza. Mogą być nim zainteresowane firmy i urzędy mające sieć placówek z niewielką liczbą stanowisk pracy. W takiej sytuacji terminal jest atrakcyjną alternatywą dla tradycyjnego komputera PC, ponieważ ułatwia centralne zarządzanie całym środowiskiem. Również tam, gdzie wykorzystuje się przenośne komputery wymagające zabezpieczenia danych, wirtualizacja desktopów bywa dobrym rozwiązaniem.
– Wirtualizacja desktopów to dobra propozycja dla klientów, dla których bezpieczeństwo danych jest kluczowe i którzy obawiają się ich przechowywania na komputerach użytkowników – uważa Bartłomiej Machnik, Datacenter Infrastructure Product Manager w Microsoft. – Dzięki VDI użytkownicy zachowują komfort pracy zbliżony do wygody korzystania z tradycyjnych, lokalnych stacji roboczych. W rzeczywistości jednak do ich urządzenia trafia wyłącznie obraz interfejsu graficznego udostępniany przez serwer.
Adam Dyszkiewicz
W mniejszych firmach zwyczajowo największy nacisk kładzie się na koszt rozwiązania. Rozsądnym podejściem jest taki dobór konfiguracji sprzętowej, który zapewni jak najdłuższy czas użytkowania. Dzięki temu inwestycja będzie rozłożona na wiele lat. Istotnym elementem jest również wybór komponentów w taki sposób, aby umożliwić łatwą i tanią rozbudowę środowiska w przyszłości. Duży wpływ na koszty mają również parametry SLA obsługi gwarancyjnej.
Sebastian Kisiel
Popularność wirtualizacji serwerów spowodowała, że rynek rozwiązań rozszerzył się i możliwe jest stosowanie tej technologii przez przedsiębiorstwa właściwie dowolnej wielkości. Każda firma planująca swój rozwój powinna rozważyć wirtualizację serwerów, gdyż na pewnym etapie będzie potrzebowała dodatkowych systemów dostarczających nowych usług, co przy zastosowaniu tej właśnie technologii może odbyć się stosunkowo niskim kosztem. Nie jest to zatem kwestia bezpośrednio związana z poziomem przychodów danej firmy, lecz raczej ze sposobem wykorzystania istniejących lub planowanych zasobów IT.
W odróżnieniu od wirtualizacji serwerów, wirtualizacja pamięci masowych jest przeprowadzana na kilka sposobów. Część rozwiązań służy do łączenia macierzy różnych producentów w jedną, wirtualną. Inne oferują mechanizmy wirtualizacji wyłącznie w obrębie produktów danego producenta. Niektórzy producenci macierzy dyskowych dodają do swoich urządzeń tylko wybrane funkcje wirtualizacji, np. thin provisioning, czyli dynamiczne przydzielanie przestrzeni dyskowej. Rozwiązania do wirtualizacji pamięci masowych różnią się również tym, gdzie uruchamiane jest oprogramowanie do wirtualizacji. Może ono działać w oddzielnym, przeznaczonym wyłącznie do tego celu urządzeniu, być wbudowane w przełącznik SAN lub stanowić część kontrolera macierzy.
Wśród małych i średnich firm dużą popularnością cieszy się oprogramowanie do wirtualizacji pamięci masowych uruchamiane na tradycyjnych serwerach z systemem Windows Server (oferują je DataCore Software i FalconStor). W większych środowiskach stosowane są wirtualizatory sprzętowe, dostarczane m.in. przez IBM, HDS czy EMC. Mechanizmy wirtualizacji pamięci masowych wbudowują w przełączniki SAN firmy Cisco i Brocade. Dużą popularność zdobyły funkcje wirtualizacji w macierzach oferowanych przez HP oraz 3PAR (przejęty w 2010 r. przez HP). Ostatnio w tym obszarze zadebiutował VMware, wprowadzając na rynek oprogramowanie Virtual SAN. Umożliwia ono wykorzystanie dysków HDD i SSD zamontowanych bezpośrednio w serwerach (DAS) jako współużytkowanego zasobu w sieci SAN.
Należy podkreślić, że kryterium wyboru rozwiązania do wirtualizacji macierzy nie powinna być liczba pracowników czy stanowisk komputerowych, ale ilość przetwarzanych przez firmę informacji i plany związane z zapewnieniem ciągłości biznesowej. Dzięki tej technologii można stworzyć elastyczne środowisko zarządzania macierzami. Znacząco uprości to dołączanie nowych urządzeń do posiadanej infrastruktury lub odłączanie tych, które się zestarzały – po przeprowadzeniu migracji danych.
Rozwiązania do backupu znane ze środowiska fizycznego, można również stosować w środowisku wirtualnym. Rodzi to jednak szereg problemów, z których najpoważniejszym jest konieczność instalowania agentów backupu w wirtualnych maszynach. Przy dużym zagęszczeniu maszyn wirtualnych na jednym serwerze fizycznym może to doprowadzić do spadku wydajności działania aplikacji. Tradycyjne systemy backupu nie są więc najlepszym rozwiązaniem do zabezpieczania danych w środowisku wirtualnym.
Przy okazji wirtualizacji serwerów można więc zaproponować klientowi również nowe rozwiązanie do backupu, dostosowane do specyfiki środowiska wirtualnego. Producenci dążą do maksymalnego skrócenia czasu przywracania maszyn wirtualnych, ponieważ w skrajnych sytuacjach może ono trwać nawet kilkanaście godzin. Dlatego coraz częściej podkreśla się, że priorytetem są funkcje odzyskiwania danych z backupu (zarówno całych wirtualnych maszyn, jak i pojedynczych plików z wirtualnego środowiska), a nie mechanizmy tworzenia kopii zapasowych.
Sławomir Karpiński
Resellerzy i integratorzy, którzy zaangażują się w sprzedaż rozwiązań do wirtualizacji pamięci masowych, mają szansę na odegranie roli jednego ze strategicznych dostawców dla swoich klientów. Ich zadaniem stanie się zapewnienie bezpieczeństwa najważniejszego zasobu większości firm – danych. DataCore oferuje możliwość łatwego rozpoczęcia współpracy oraz zapewnia wszystkie potrzebne do tego narzędzia – szkolenia, system rejestracji kontraktów, preferencyjne ceny i specjalne licencje na oprogramowanie, dzięki którym można świadczyć usługi przenoszenia danych.
Artykuł MSP potrzebują wirtualizacji pochodzi z serwisu CRN.
]]>Artykuł ,,Indeks niepewności’’ małych i średnich firm pochodzi z serwisu CRN.
]]>Na podstawie odpowiedzi na 12 pytań Ponemon stworzył ,,Indeks niepewności”, wahający się od 10 do 1, gdzie 10 oznacza największą niepewność, a 1 pewność. Wynika z niego, że małe firmy zatrudniające poniżej 100 pracowników wysoko oceniają ryzyko – uzyskały ocenę 6,5. Ponadto według badania im wyższa pozycja pracownika w organizacji, tym większa niepewność co do strategii bezpieczeństwa IT. Dyrektorzy otrzymali notę 6,8.
Badanie wykazało istnienie 7 największych zagrożeń dla MŚP wynikających z nieodpowiedniej polityki bezpieczeństwa:
– cyberataki pozostają niewykryte: znacząca liczba respondentów (33 proc.) nie wie, czy ich organizacja była celem cyberataku w ciągu ostatnich 12 miesięcy
– nieznane przyczyny naruszenia danych: 51 proc. respondentów twierdzi, że w ich firmie doszło do naruszenia danych, tymczasem 44 proc. z nich nie ma pojęcia, dlaczego tak się stało
– brak reakcji na zagrożenia wykorzystujące luki w zabezpieczeniach: w małych firmach brakuje wiedzy na temat częstotliwości i skali ataków cybernetycznych. Jedna trzecia – 33 proc. – badanych potwierdziła, że brak wiedzy uniemożliwia wdrożenie skutecznej polityki bezpieczeństwa IT
– bezpieczeństwo IT nie jest priorytetem: dla 44 proc. badanych. Ponadto 42 proc. respondentów uważa, że ich budżet nie jest wystarczający do zapewnienia skutecznej ochrony IT, a 26 proc. twierdzi, że personel IT nie ma wystarczającej wiedzy do zarządzania polityką bezpieczeństwa
– brak inwestycji w zabezpieczenia: 58 proc. respondentów odpowiedziało, że zarząd nie uważa cyberataków za znaczące ryzyko
– dwuznaczność trendu BYOD: 55 proc. ankietowanych twierdzi, że mobilne urządzenia pogarszają bezpieczeństwo organizacji. Jednak 58 proc. mimo obaw akceptuje używanie prywatnych urządzeń mobilnych w pracy, natomiast 45 proc. uznało, że BYOD zmniejsza skuteczność ochrony w firmie
– straty związane z atakami są nieznane: respondenci szacują, że koszt zakłóceń spowodowanych działaniami cyberprzestępców jest znacznie większy niż straty powstałe w wyniku kradzieży, ale 29 proc. nie potrafi oszacować kosztów szkód wywołanych utratą danych cyfrowych.
Artykuł ,,Indeks niepewności’’ małych i średnich firm pochodzi z serwisu CRN.
]]>Artykuł Wymagające sieci w małych i średnich firmach pochodzi z serwisu CRN.
]]>Analizując ofertę rynku
rozwiązań sieciowych dla mniejszych firm, można dojść do trochę
kontrowersyjnego wniosku, że w sumie nie ma większego znaczenia producent
sprzętu, jego rodzaj czy oferowana wydajność. Przecież i tak wszystkie
urządzenia muszą być zgodne z powszechnie przyjętymi standardami
sieciowymi, większość dostawców buduje swoje urządzenia, bazując na tych samych
chipsetach produkowanych przez firmy trzecie, a typowa praca w biurze
oparta jest głównie na przesyłaniu dokumentów czy danych z Internetu
– w obu przypadkach niewymagających dużych prędkości…
Przedstawiciele firm dostarczających rozwiązania sieciowe
przyznają, że w najmniejszych instalacjach rzeczywiście takie podejście
może być uzasadnione, jednak gdy tylko liczba pracowników i podłączonych
do sieci urządzeń zacznie rosnąć, ogromnego znaczenia nabierze jakość
komponentów zastosowanych do budowy infrastruktury (szczególnie bezprzewodowej)
czy kwestie związane z bezpieczeństwem.
Maciej Kaczmarek
Dobór urządzeń sieciowych powinien być uzależniony od ilości
przesyłanych w sieci danych. W związku z tym nie należy zwracać
uwagi wyłącznie na liczbę pracowników czy podłączonych urządzeń, a na
rodzaj wykorzystywanych w firmie danych. Często bowiem zdarza się, że
kilkuosobowe biuro projektowe potrafi w większym stopniu wykorzystać sieć
niż stuosobowa firma, gdzie w pracy używa się wyłącznie plików pakietu
biurowego.
Rozpoczynając rozmowy z klientem, który planuje budowę
lub rozbudowę swojej infrastruktury sieciowej, trzeba przeanalizować przede
wszystkim kwestię jej skali. I wcale nie liczba pracowników będzie tu
kluczowym parametrem. Jeżeli w firmie działa lub jest planowana sieć bezprzewodowa,
to wielu pracowników będzie chciało podłączyć do niej swoje smartfony czy
tablety. W efekcie podwojeniu lub potrojeniu może ulec liczba koniecznych do
obsłużenia urządzeń (pojawią się też dodatkowe wyzwania związane
z bezpieczeństwem). Konieczna jest także analiza charakteru
i objętości przesyłanych w sieci danych.
Charakterystyczne dla naszych czasów stało się to, że nawet
bardzo małe firmy wobec rozwiązań IT mają podobne oczekiwania i wymagania,
jak duże korporacje. Jedną z najważniejszych cech stała się tzw. wysoka
dostępność systemów IT, na którą ogromny wpływ mają oczywiście rozwiązania
sieciowe. Dzisiaj, gdy zabraknie możliwości korzystania z kluczowej
aplikacji biznesowej lub z Internetu, nie da się prowadzić biznesu.
W dobie wysokiej konkurencji i nieustannie rosnących oczekiwań
klientów przerwa w działaniu firmy to nie tylko biznesowa, ale także
wizerunkowa porażka.
Dlatego resellerzy powinni zrobić wszystko, aby zapewnić
swoim klientom ciągłość pracy – ich zaangażowanie z pewnością
zostanie wynagrodzone. Najkorzystniejszą formą będzie podpisanie dodatkowo
płatnej umowy gwarantującej ciągłość pracy sieci i zapewniającej jej
bardzo szybkie (w ciągu paru godzin) przywrócenie do pracy po awarii. Producenci
chętnie współpracują z resellerami, którzy chcą świadczyć tego typu usługi
– zapewniają łatwy i tani dostęp do sprzętu zastępczego, sprawnie
rozwiązują też roszczenia gwarancyjne, często zapewniając wymianę uszkodzonego
sprzętu na nowy już na następny dzień roboczy.
Kolejną charakterystyczną cechą małych i średnich firm
jest to, że trudno ocenić, jakie będzie tempo ich rozwoju. Gdy firma odniesie
sukces, to nagle w krótkim czasie zamiast dziesięciu pracowników może
pojawić się ich kilkudziesięciu. Dlatego, projektując sieć, trzeba uwzględnić
możliwość jej szybkiej rozbudowy, bez konieczności wymiany już zainstalowanego
sprzętu i znacznego modyfikowania środowiska pracy użytkowników, do
którego zdążyli się przyzwyczaić.
Trzecim ważnym zagadnieniem, z którego – na szczęście
– coraz więcej firm zdaje sobie sprawę, jest bezpieczeństwo przesyłanych
w sieci danych.
– Świadomość dotycząca bezpieczeństwa sieci firmowych
znacznie się poprawiła, jest coraz więcej zapytań o urządzenia
z obsługą wirtualnych sieci prywatnych VPN – mówi Przemysław
Biel, Product Manager w firmie Incom. – Na popularności zyskuje
ostatnio możliwość tworzenia kilku podsieci z różnymi prawami dostępu do
zasobów firmowych, oferowana w bardziej zaawansowanych routerach
i punktach dostępowych.
Przemysław Biel
Dzisiaj w małych i średnich firmach infrastruktura
sieciowa wciąż jest oparta na połączeniach przewodowych w standardzie Fast
Ethernet, głównie ze względu na niską cenę. Rośnie natomiast zainteresowanie
urządzeniami z zasilaniem, zgodnymi ze standardem Power-over-Ethernet,
gdyż taka opcja zaczyna się pojawiać także w tańszych urządzeniach
i jest wykorzystywana między innymi do zasilania kamer IP oraz punktów
dostępowych WiFi. Szybko rośnie też zainteresowanie przełącznikami gigabitowymi
i sieciami bezprzewodowymi działąjącymi w częstotliwości 5 GHz.
Konieczność
zróżnicowania praw dostępu do zasobów dla różnych grup urządzeń
i użytkowników to efekt rozpowszechniającego się od paru lat trendu BYOD
(Bring Your Own Device). Według przeprowadzonych badań pracownicy
– korzystając z własnych, samodzielnie wybranych urządzeń
– bywają znacznie bardziej efektywni w pracy. Co więcej, są nawet
w stanie zaakceptować sytuację, w której pracodawca w ogóle nie
wyposaży ich w sprzęt, a na przykład częściowo zrefunduje koszt zakupu własnego. Między innymi z tego powodu ten trend bywa
popularniejszy w małych firmach niż w dużych.
Taka sytuacja oznacza dość poważne konsekwencje dla osób
odpowiedzialnych w firmach za infrastrukturę IT i bezpieczeństwo
informacji. Przede wszystkim trudno jest oszacować, ile urządzeń będzie
pracować w sieci w szczytowym momencie. Ponieważ praktycznie
wszystkie będą podłączone drogą bezprzewodową, należy uwzględnić pewien zapas
wydajności, projektując infrastrukturę, jak też zainwestować w lepszej
jakości punkty dostępowe. Po drugie należy zapewnić możliwość kategoryzowania
sprzętu (komputer/tablet/telefon oraz zarządzający nimi system operacyjny)
i użytkowników (pracownik/współpracownik/gość) oraz przydzielania
odpowiednich uprawnień dostępu do zasobów. Idealnie byłoby, gdyby urządzenia
dostępowe w sieci mogły np. weryfikować, czy na podłączanym urządzeniu
jest zainstalowana najnowsza wersja oprogramowania antywirusowego
z aktualnymi bazami wirusów.
Od ponad dekady producenci aktywnie przygotowują swoje rozwiązania
do nowego standardu adresacji w sieciach – IPv6. Ma on docelowo
zastąpić stosowany dziś i powszechnie znany standard IPv4. Nagminnie
wskazywany probleme związany z IPv4 polega na tym, że już wkrótce
wyczerpie się pula dostępnych adresów, a przez to nie będzie możliwe
podłączanie kolejnych urządzeń do Internetu. Najciekawsze jest jednak to, że
wspomniane „już wkrótce” trwa od ponad… pięciu lat.
Kreślony wówczas scenariusz zakładał, że wyczerpanie puli
adresów IPv4 nastąpi tak szybko, że użytkownicy nie nadążą z dostosowaniem
swoich rozwiązań do standardu IPv6. W międzyczasie jednak producenci
zarówno sprzętu (przełączniki, routery, karty sieciowe), jak też oprogramowania
(systemy operacyjne, aplikacje do zarządzania sieciami) przygotowali je do
pracy w obu standardach i cierpliwie czekają.
Norbert Ogłoziński
Aby przygotować się na
trend BYOD należy rozważyć podjęcie odpowiednich działań, takich jak instalacja
firewalla z systemem antywirusowym oraz systemem zapobiegania włamaniom do
sieci przewodowych i bezprzewodowych. Również dotychczasowy model administracji
IT powinien zostać zmieniony, z uwzględnieniem coraz większej liczby
i różnorodności urządzeń w sieci. Myślę, że pierwszą falę tej
swoistej rewolucji mamy już za sobą, teraz przyszedł czas na bardziej
usystematyzowane działanie, co oznacza kolejną szansę dla resellerów. Obecnie
przedsiębiorstwa są zmuszone zainwestować w infrastrukturę
i rozwiązania umożliwiające swobodne, ale też bezpieczne korzystanie
z urządzeń mobilnych przez ich pracowników.
Obecnie
z technicznego punktu widzenia rynek jest gotowy na zmianę, chociaż nie
powinno to uśpić czujności resellerów. Audytując posiadaną przez klienta sieć
i planując jej ewentualną rozbudowę, warto zwrócić uwagę, czy jest gotowa
na IPv6. Wymiana paru urządzeń na nowe zagwarantuje święty spokój
w momencie, gdy nagle lokalny dostawca Internetu stwierdzi, że od dziś
transmisja będzie odbywała się zgodnie z nowym standardem. Tendencja
podłączania do Internetu wszystkiego, co możliwe (pralek, lodówek, systemów
sterowania oświetleniem), spowoduje, że wcześniej czy później to nastąpi.
Na rynku rozwiązań
sieciowych dla małych i średnich firm obecne są dwie grupy firm. Pierwsza
to tradycyjni gracze, oferujący często rozwiązania także dla domu. Wśród
największych jest m.in. Belkin (odkupił ostatnio od Cisco grupę produktową
najmniejszych rozwiązań oferowanych pod marką Linksys), D-Link, Netgear, SMC
Networks, TP-Link i ZyXEL.
Propozycja produktowa wspomnianych firm jest podobna, składa
się głównie z przełączników sieciowych, routerów (także bezprzewodowych)
oraz wielu komponentów do budowy infrastruktury sieci bezprzewodowej
umożliwiającej obsługę kilkudziesięciu lub nawet kilkuset urządzeń. Część producentów
jest obecnie na etapie ujednolicania i uzupełniania poszczególnych grup
produktowych, aby móc przygotować dla klienta pełne rozwiązanie. Takie plany
zdradził nam m.in. Zdzisław Kaczyk, dyrektor sprzedaży w firmie TP-Link: –
Wkrótce nasza oferta zostanie rozszerzona o rozwiązania dla średnich firm.
Będą to głównie przełączniki warstwy trzeciej służące do budowy szkieletu
w większej firmowej sieci. Pracujemy też nasz stworzeniem małych macierzy
dyskowych.
Druga grupa to firmy kojarzone głównie z propozycją dla dużych korporacji, chociaż dysponujące
ciekawymi rozwiązaniami także dla mniejszych firm. Mowa tu głównie o Cisco
i HP, które znacznie rozszerzyło ofertę sieciową po kupieniu firmy 3Com.
Reseller, który chce być
gotowy do obsługi klientów każdej wielkości (włącznie z gospodarstwami
domowymi), powinien zaangażować się we współpracę przynajmniej z jedną
firmą z obu grup. Zwiększy w ten sposób różnorodność oferowanych
produktów, jak też będzie mógł dostosować się do możliwości finansowych
klienta.
Sebastian
Pasternacki
Całą branżę trochę zaskoczyło dość wolne przyjęcie protokołu
IPv6. Uważna obserwacja rynku wskazywała na to, że pula adresów IPv4 wyczerpie
się znacznie szybciej i dostawcy Internetu „przełamią się”, wymuszając na
użytkownikach gotowość do pracy w standardzie IPv6. Tymczasem sytuacja na
rynku trochę się odwróciła – dzisiaj większość urządzeń sieciowych,
komputerów czy sprzętu mobilnego jest gotowych na IPv6, tymczasem w tej
chwili tylko pół procenta ruchu generowanego w Polsce odbywa się w tym
standardzie.
Pracownicy firm oczekują jak największej swobody
w dostępie do informacji, a ich pracodawcy – jak największego
bezpieczeństwa tych danych. To pociąga za sobą ważne konsekwencje
i oczekiwania, zarówno wobec zatrudnionych w firmie informatyków, jak
też dostawców rozwiązań. O tym, że rozwój tego rynku zostanie
przystopowany, możemy zapomnieć.
– Właśnie jesteśmy świadkami wchodzenia do użytku nowego
standardu transmisji danych bezprzewodowych – 802.11ac. Zagwarantuje on
połączenia lepszej jakości z większymi prędkościami przesyłania danych
oraz zapewni niezawodność i lepszy zasięg sieci w całym biurze czy
domu – mówi Norbert Ogłoziński, Country Sales Manager w ZyXEL-u.
Dla resellerów taka
sytuacja to szansa nie tylko na realizację poszczególnych kontraktów, ale też
na stałe związanie się ze swoimi klientami. Wymiana sprzętu sieciowego będzie
następowała falami, co parę lat – warto zadbać, aby cała infrastruktura
była rozbudowywana o rozwiązania tego samego producenta przez dostawcę,
który projektował i zna dane środowisko. Coraz częściej szansą na
dodatkowy zarobek są też kontrakty na zdalne zarządzanie infrastrukturą
sieciową klienta w modelu outsourcingowym – szczególnie tam, gdzie
nie ma informatyka zatrudnionego na stałe, a jeśli jest, to nie ma
wystarczającej wiedzy lub jest zbyt zajęty bieżącym wsparciem użytkowników.
Producentom rozwiązań sieciowych wyjątkowo zależy na tym,
aby przywiązać do siebie partnerów i zagwarantować stałą współpracę.
W zamian za taką lojalność są w stanie zaoferować bardzo dużo
w ramach programu partnerskiego – naprawdę warto skorzystać
z tej oferty, bo takich benefitów próżno szukać przy sprzedaży np.
komputerów, komponentów czy urządzeń peryferyjnych.
– Dla naszych zarejestrowanych partnerów bardzo ważna
jest możliwość skorzystania z programu NFR – podkreśla Norbert
Ogłoziński z ZyXEL-a. – Dzięki niemu mogą kupić wybrane urządzenia
demonstracyjne z dużym upustem. Udostępniamy również sprzęt do
nieodpłatnego wypożyczania, np. do testów w infrastrukturze klienta.
Tomasz Oriol
HP, czasami niesłusznie, jest kojarzone głównie
z ofertą rozwiązań sieciowych dla większych firm. Natomiast mamy też
ciekawą propozycję nawet dla firm najmniejszych, zatrudniających kilku
pracowników. Przygotowaliśmy dla nich zestawy składające się z serwera
i kompletnego rozwiązania sieciowego – kablowego
i bezprzewodowego. Dla mniejszych firm mamy też prekonfigurowane
oprogramowanie HP Intelligent Management Center do zarządzania infrastrukturą
IT. Jest ono dostępne w postaci gotowej do pracy wirtualnej maszyny,
zawierającej odpowiednio skonfigurowany system operacyjny, bazę danych
i aplikację IMC.
Jednak podstawową korzyścią płynącą z uczestnictwa
w programie partnerskim są duże upusty na produkty sieciowe
(o wysokości uzależnionej od stopnia partnerstwa, ale sięgające nawet
20 proc.). Resellerzy mogą też rejestrować u dostawców realizowane
projekty, dzięki czemu „rezerwują” sobie prawo do uzyskania najlepszych cen na
dane wdrożenie. Do dyspozycji partnerów jest też wiele materiałów
marketingowych (ulotki, katalogi, gadżety, grafika do umieszczenia
w materiałach własnych lub na stronach internetowych) oraz wiedza
– dostępna w postaci szkoleń, internetowego forum i możliwości
kontaktu z wykwalifikowanymi inżynierami.
Także Cisco, kojarzone
głównie z ofertą dla największych przedsiębiorstw, deklaruje wolę
współpracy z partnerami różnej wielkości.
– W Polsce
w naszym programie partnerskim jest obecnie zarejestrowanych około tysiąca
firm – mówi Sebastian Pasternacki,
Partner Systems Engineer w Cisco. – Najwięksi partnerzy często
współpracują bezpośrednio z nami, zaś mniejsi – z naszymi
dystrybutorami, od których dostają potrzebne wsparcie, zarówno techniczne, jak
i sprzedażowe. Dla najniższych poziomów partnerstwa Cisco nie mamy
sztywnych wymogów odnośnie do certyfikacji pracowników partnera, chociaż oczywiście
zachęcamy do inwestycji we własną wiedzę i pozyskiwanie stosownych
certyfikatów.
Tomasz Oriol, dyrektor Działu Rozwiązań Sieciowych
w HP, również podkreśla dużą rolę partnerów przy współpracy
z producentami rozwiązań sieciowych.
– To oni mają codzienny kontakt ze swoimi klientami
i rozwiązują ich problemy. Jednak – aby tych kłopotów było jak
najmniej – zachęcamy do wyboru dostawcy, który walczy nie tylko ceną, ale
też jakością produktu i wsparcia. Finalnie klient chce kupić święty
spokój, a ten może zagwarantować tylko producent o sprawdzonej marce,
z lokalnym wsparciem serwisowym, który – w razie nietypowych
problemów – jest w stanie przekazać sprawę kompetentnym inżynierom
odpowiedzialnym za rozwój produktu.
Jeśli nie przekonają nas korzyści z programu
partnerskiego lub warunki cenowe skłaniają do zaproponowania klientowi
rozwiązania bazującego na komponentach od różnych firm, warto pamiętać
o dodatkowych korzyściach, które płyną z budowy całej infrastruktury
z wykorzystaniem sprzętu od jednego dostawcy.
Największą wartością przy
zachowaniu lojalności względem jednego producenta będzie łatwość zarządzania
całą infrastrukturą. Coraz częściej starają się oni tworzyć centralne systemy
zarządzania, w panelu których administrator zyskuje dostęp do ustawień
wszystkich podłączonych urządzeń sieci przewodowej i bezprzewodowej danej
firmy. Zdecydowanie ułatwia to nie tylko bieżące zarządzanie infrastrukturą,
ale także identyfikację przyczyn ewentualnej niepoprawnej pracy.
W ten sposób unika
się też sytuacji, w której dwóch producentów urządzeń będzie zrzucać winę
jeden na drugiego w przypadku problemów. Natomiast gdy konkurencyjna
oferta na jeden czy dwa komponenty sieci jest znacznie tańsza, wystarczy o tym
wspomnieć swojemu dotychczasowemu dostawcy. Podczas rozmów z redakcją
wszyscy przedstawiciele firm deklarowali możliwość przystąpienia do negocjacji
przy większych kontraktach.
Zdzisław Kaczyk
W czasach, gdy większość rozwiązań sieciowych dla małych
firm ma podobną funkcjonalność, resellerzy coraz większą uwagę zwracają na
programy partnerskie producentów. TP-Link w ramach programu TP-Partner
oferuje sprzedawcom różnorodne korzyści – za zebrane punkty można zamawiać
wiele rodzajów materiałów marketingowych lub nawet wymienić je na żywą gotówkę.
Oferujemy także wsparcie wykwalifikowanych inżynierów i dedykowane
szkolenia.
Artykuł Wymagające sieci w małych i średnich firmach pochodzi z serwisu CRN.
]]>