Artykuł Serwery i systemy operacyjne, czyli stare po nowemu pochodzi z serwisu CRN.
]]>– Dzieje się tak, ponieważ przede wszystkim nastąpił duży wzrost prędkości transferu w sieciach SAN i Ethernet. Przyspieszeniu nie sprostały architektury, np. midplane, czyli układów łączących serwery i przełączniki w obudowach – twierdzi Sebastian Perczyński, Presales Consultant z Fujitsu.
Pojawiła się zatem potrzeba zastosowania nowych obudów, a to kłóci się z ideą konstrukcji kasetowej, która miała zapewniać skalowalność wyłącznie przez wymianę modułów serwerowych. Na spadek zainteresowania serwerami blade wpływa też przejście od klasycznej wirtualizacji do rozwiązań chmurowych i definiowanych programowo (Software Defined). W takim przypadku konieczne jest dostosowanie sprzętu do najnowszych technik (Ethernetu 100 Gb/s, FC 32/64 Gb/s, dysków NVMe). A tę cechę mają klasyczne serwery rackowe i zyskujące coraz większą popularność platformy dla środowisk chmurowych.
Serwery rackowe umożliwiają realizowanie koncepcji SDI (Software Defined Infrastructure) i HCI (HyperConverged Infrastructure), spełniających potrzebę upraszczania infrastruktury serwerowo-pamięciowej. Dzięki nowym trendom nie trzeba się długo zastanawiać, jakie wykorzystać serwery i macierze, w jakich grupach i konfiguracjach, z jakimi dyskami, bo wiele potrzebnych funkcji zapewnia oprogramowanie urządzeń. Kod stworzony przez programistów realizuje dużą część zadań dotąd ręcznie wykonywanych przez administratorów. Nie trzeba się martwić o zwymiarowanie systemu pod kątem potrzeb firmy, bo klient dostaje gotowe rozwiązanie, przetestowane i certyfikowane. W dodatku dające się łatwo skalować przez dokładanie kolejnych takich samych węzłów.
Klienci coraz częściej poszukują rozwiązań Software Defined Ready, takich jak serwery rackowe. Urządzenia te zapewniają dostosowywanie posiadanych zasobów do dynamicznie zmieniającego się zapotrzebowania ze strony obsługiwanego oprogramowania. Wyróżnia je możliwość dużej koncentracji mocy obliczeniowej i skalowalność.
– Dlatego ten typ serwerów cieszy się dziś ogromnym zainteresowaniem ze strony klientów – twierdzi Rafał Szczypiorski, Business Development Manager, Global Compute and Networking w Dell EMC.
Wśród nowych trendów technicznych w świecie serwerów za istotną zmianę można uznać coraz częstsze używanie dysków NVMe, dużo szybszych od standardowych nośników. Są znacząco droższe, ale uzyskiwany wzrost wydajności w przypadku środowisk HPC (High Performance Computing), rozwiązań hiperkonwergentnych itp. uzasadnia poniesione koszty.
– To największa zmiana w serwerach w ostatnim czasie. Na rynku pojawiają się wciąż nowe platformy umożliwiające montowanie szybkich dysków NVMe – podkreśla Krzysztof Szablowski, Engineers Team Leader w S4E.
Jak się wyróżnić, kiedy nie ma czym?
Ponieważ serwery bazują na standardowych rozwiązaniach (wszyscy korzystają z komponentów Intela, rzadziej AMD), ich producentom trudno się wyróżnić. Produkty Intela niezmiennie są wybierane najczęściej, bo klienci, którzy rozbudowują firmowe środowiska, tworząc chociażby klastry, np. z wykorzystaniem wirtualizatorów VMware, chcą zadbać o homogeniczność infrastruktury. Dokupują więc sprzęt podobny do tego, jaki już posiadają, który w zdecydowanej większości jest wyposażony w procesory rynkowego potentata.
– Jeśli serwery mają w środku to samo, producenci nie mają dużego pola do popisu. Mogą się wyróżnić bardziej funkcjonalnym firmware'em. Próbują też grać ceną, ale w sytuacji stosowania komponentów od tego samego dostawcy również tutaj mają małe pole manewru – zauważa Krzysztof Szablowski.
Dlatego serwery to nie jest łatwy rynek. W dodatku producenci przyzwyczaili klientów do częstych zniżek. W efekcie ceny katalogowe urządzeń różnych dostawców niewiele się obecnie różnią. A niskie ceny oznaczają spadek zainteresowania dostawców mniejszymi projektami, na których trudniej zarobić.
Z drugiej strony kłopot jest też z projektami największymi, bo wielcy dostawcy usług w chmurze publicznej sami składają sobie serwery z zamówionych komponentów. Budują sprzęt, który zapewni im największą elastyczność i najprostszą administrację rozwiązaniami. W przypadku tysięcy serwerów będzie to miało przełożenie na znacząco mniejszy koszt zakupu i eksploatacji. Na szczęście sprawdza się to tylko u gigantów, bo nawet właściciele centrów danych wybierają oferty tradycyjnych dostawców serwerów.
– Kupują od producenta, bo potrzebują supportu. Nie dysponują takimi zasobami ludzkimi, by mogli we własnym zakresie zająć się obsługą tworzonej samodzielnie infrastruktury – wyjaśnia Krzysztof Szablowski.
To dowód, że na serwer trzeba patrzeć całościowo, zwracać uwagę nie tylko na sprzęt, ale także na dołączone do niego usługi wsparcia. Nie można więc zapominać o serwisie. Rafał Szczypiorski przekonuje, że dobra obsługa posprzedażna przynosi ogromne korzyści i może zaważyć na wyborze oferty przez klienta. Dlatego pojawiają się nowe metody świadczenia pomocy technicznej wychodzące naprzeciw oczekiwaniom klientów.
– Idealnym przykładem jest możliwość nadania odpowiedniego priorytetu zgłoszenia przez samego klienta. To nie serwis decyduje jak ważne jest zgłoszenie, a klient – mówi przedstawiciel Dell EMC.
Gdy rosła moc obliczeniowa i pojemność serwerów, tradycyjnie uruchamiane aplikacje przestały wykorzystywać wszystkie dostępne zasoby. Dlatego powstała koncepcja konsolidowania wielu systemów i aplikacji w ramach jednego fizycznego serwera za pomocą wirtualizacji, to znaczy użycia oprogramowania do emulowania wielu systemów sprzętowych. Hypervisor, czyli wirtualizator, tworzy warstwę między sprzętem a maszynami wirtualnymi, których zakładanie i uruchamianie umożliwia. Mogą one być wyposażone w różne systemy operacyjne, a mimo wszystko działać na tym samym serwerze fizycznym – każda ma własne pliki binarne, biblioteki i aplikacje, które obsługuje. Dlatego pojedyncza maszyna wirtualna jest „ciężka”, bywa, że ma wiele gigabajtów. Wirtualizacja systemu operacyjnego zyskała na popularności w ostatniej dekadzie, umożliwiając przewidywalne działanie maszyn wirtualnych i łatwe ich przenoszenie z jednego środowiska serwerowego do innego.
Wykorzystywana w ostatnim czasie coraz powszechniej konteneryzacja także gwarantuje uruchamianie wielu izolowanych systemów, ale w ramach tego samego systemu operacyjnego hosta. Działając na serwerze fizycznym, każdy kontener współużytkuje jądro systemu operacyjnego, takiego jak Linux czy Windows, a zazwyczaj także pliki binarne i biblioteki. Współużytkowane komponenty przeznaczone są tylko do odczytu. W rezultacie kontenery są wyjątkowo „lekkie”. Ich rozmiar może być liczony w megabajtach, a nie gigabajtach, natomiast ich uruchomienie zajmuje zaledwie kilka sekund, a nie minut, jak w przypadku maszyn wirtualnych. Konteneryzacja odciąża administratorów IT i to nawet bardziej niż wirtualizacja. Skoro bowiem kontenery używają tego samego systemu operacyjnego, wsparcia (m.in. dostarczania aktualizacji, poprawek) wymaga tylko jeden system operacyjny.
Nie bez znaczenia dla klientów podejmujących decyzje biznesowe jest też dostępność i jakość oprogramowania zarządzającego. Nie wystarcza już takie, które zapewnia zarządzanie jedynie serwerami. Klienci potrzebują narzędzi uniwersalnych, dzięki którym jednocześnie mogą objąć zarządzaniem również środowisko pamięci masowej oraz sieciowe.
– Idealnym rozwiązaniem wydaje się być możliwość definiowania profili dla określonych grup sprzętowych, zgodnie z którymi każde nowe urządzenie po podłączeniu do sieci zostanie automatycznie skonfigurowane – twierdzi Sebastian Perczyński.
W obliczu mającego nastąpić ogromnego wzrostu cen energii elektrycznej wyróżnikiem oferty może być energooszczędność serwerów. Wyższa cena prądu bardzo wpłynie na koszt utrzymania serwerów, a w efekcie docelowej usługi przez nie realizowanej. Dlatego klienci będą szukać konstrukcji serwerowych, które zapewnią im niższe rachunki za energię.
– Powinno wzrosnąć zainteresowanie ekonomicznymi technikami chłodzenia, zapewnianymi przez producentów serwerów jak również oferowanymi przez niezależnych dostawców – twierdzi Krzysztof Szablowski.
Serwerowe systemy operacyjne
System operacyjny zawsze pełnił taką samą rolę – zapewniał aplikacjom dostęp do zasobów sprzętowych. Ostatnie lata nie przyniosły w tej kwestii żadnych zmian.
– Bezpieczeństwo, stabilność, wydajność i skalowalność – oto, czego oczekuje się od nowoczesnego systemu operacyjnego. Ma dobrze pracować w maszynie fizycznej, wirtualnej, instancji chmurowej lub wykorzystywany pasywnie jako obraz kontenera – tłumaczy Wojciech Furmankiewicz, Regional Manager, CEE w Red Hat.
Obecne systemy operacyjne ewoluują, zmieniają postać z monolitycznej na modułową. Projektując kolejne wersje, twórcy zmierzają do tego, żeby użytkownicy nie musieli instalować całego oprogramowania, tylko wybierać to, co w danym momencie jest im potrzebne.
Bardzo istotne stają się funkcje ułatwiające utrzymanie systemu. Ponieważ podczas wprowadzania zmian i aktualizacji nie da się uniknąć błędów, przydatna jest możliwość szybkiego powrotu do poprzedniego stanu, w którym problem nie występował. Pomocna będzie także opcja instalowania poprawek, przede wszystkim związanych z lukami w zabezpieczeniach i stabilnością systemu, bez konieczności wyłączania go.
– Gdy w przedsiębiorstwie trzeba czekać nawet miesiąc na okno serwisowe i przez ten czas systemu nie można zaktualizować, taka funkcja bardzo się przydaje – twierdzi Tomasz Surmacz, dyrektor handlowy w SUSE Polska.
Ma to znaczenie zwłaszcza w przypadku systemów udostępnianych na zewnątrz, w których poprawki związane z podniesieniem poziomu bezpieczeństwa muszą być wprowadzane natychmiast po ich wydaniu.
Ważnym zadaniem serwerowego systemu operacyjnego jest również łatwe budowania klastrów serwerów – zarówno w trybie active-active, jak również active-passive. Klastry można uruchamiać w jednej sieci lokalnej, ale też w miejscach oddalonych o wiele kilometrów, gdzie serwery są wykorzystywane zdalnie, budując w ten sposób środowisko HA (High Availability).
Dzianis Kaszko, Sales & Marketing Director, Comtegra
To, które serwery są w danym momencie tańsze, wynika z polityki dostawców, ich programów cenowych i lojalnościowych. Zdarza się, że serwer o bardzo podobnych parametrach kosztuje mniej u producenta A, ale w konfiguracji z innymi komponentami tańszy jest u producenta B. Bardzo często ważnym kryterium wyboru (zwłaszcza dla przedsiębiorstw z dużymi środowiskami IT) są koszty zarządzania. Jeśli klient ma kilkadziesiąt serwerów jednego producenta i administruje nimi za pomocą stworzonego dla nich rozwiązania, dokupienie kolejnych maszyn innej marki rodzi problemy. Musiałby zarządzać nimi, używając dodatkowych narzędzi. Bardziej ekonomiczny jest zatem zakup droższych o kilka procent urządzeń tego samego dostawcy i zachowanie spójnego środowiska. Nie mniej ważna jest jakość serwisu. Generalnie w ostatnim czasie można było zaobserwować jej spadek, więc vendorzy, którzy nie obniżyli poziomu usług, zaczynają wygrywać. Klient docenia fakt, że jego problemy rozwiązywane są w Polsce, nie musi czekać dwa tygodnie na jakiś komponent itp. Ma to dla niego ogromne znaczenie, zwłaszcza jeśli jego środowisko produkcyjne musi działać w trybie 24/7. Kolejną ważną rzeczą, którą może wyróżnić się producent, jest krótszy termin dostawy.
Podobnie jak w przypadku innych komponentów, które składają się na środowisko IT, istotnym aspektem serwerowego systemu operacyjnego jest koszt utrzymania. Jego znaczenie ciągle rośnie, bo na rynku jest coraz trudniej o fachowy personel informatyczny, a pracy w dziale IT przybywa. W związku z tym coraz potrzebniejsze są narzędzia wspierające administratorów w codziennych obowiązkach, a producenci systemów operacyjnych dołączają do nich rozwiązania ułatwiające zarządzanie infrastrukturą centrum danych, nie tylko uruchomioną za pomocą ich oprogramowania. Dzięki tym narzędziom można zoptymalizować administrowanie całym środowiskiem oraz zwiększyć jego ochronę, np. uzyskując kontrolę nad usuwaniem luk w zabezpieczeniach.
Za pomocą oprogramowania w centrum danych realizowana jest obecnie – wspomniana już przy okazji serwerów – idea Software Defined Infrastructure. Buduje się infrastrukturę, używając standardowych elementów sprzętowych, czyli serwerów z dyskami, a całą „inteligencję” wnosi oprogramowanie. Na bazie systemu operacyjnego dostarczane są m.in. usługi zwirtualizowanej sieci i pamięci masowej dla chmury prywatnej, narzędzia do zarządzania infrastrukturą definiowaną programowo oraz coraz ważniejsze usługi kontenerowe. Dzięki tym ostatnim można elastycznie korzystać z oprogramowania – bardzo szybko i niezależnie od infrastruktury instalować i uruchamiać aplikacje oraz wymuszać ich zamknięcie, zgodnie z aktualnymi potrzebami.
Wirtualizacja kontra konteneryzacja
Rośnie trend wykorzystywania kontenerów wszędzie, gdzie tylko to możliwe. To efekt m.in. ich lekkości, szybkości uruchamiania, bardziej optymalnego użycia zasobów oraz łatwości budowania nowych aplikacji w atrakcyjnej architekturze mikrousług. Stosowanie tych rozwiązań wpływa na obniżenie kosztów utrzymania infrastruktury i poprawę zwinności biznesu. Dlaczego zatem jeszcze nie wszystko jest jeszcze skonteneryzowane?
Jak wyjaśnia Wojciech Furmankiewicz, konteneryzacja polega na współużytkowaniu jądra systemu węzła przez wiele aplikacji pracujących w odizolowanych procesach. Dlatego, po pierwsze, wersja jądra jest taka sama dla wszystkich, a po drugie, awaria jądra oddziałuje na setki gęsto upakowanych wykorzystujących je kontenerów. W przypadku uruchamiania nowoczesnych aplikacji, które są zaprojektowane do pracy w takim środowisku, ma to niewielkie znaczenie.
– Jeśli jednak firmowe systemy są bardziej tradycyjne, wymagają specyficznej wersji jądra i źle znoszą awarię systemu, lepsza będzie w ich przypadku wirtualizacja – wyjaśnia przedstawiciel Red Hata.
Jej cechą nadrzędną jest dowolność wersji i rodzaju systemu w przypadku każdej pracującej aplikacji. W efekcie awaria jednej maszyny wirtualnej nie ma wpływu na inne. Na jednym hoście mogą pracować zarówno systemy Linux, jak i Windows.
– Dlatego przedsiębiorstwa są zmuszone utrzymywać te „ciężkie” obiekty i opiekować się ich złożonym cyklem życia. To kompromis wynikający z bilansu zysków i start – twierdzi Wojciech Furmankiewicz.
W efekcie firmy są skazane na wiele różnych platform, środowiska hybrydowe, wielochmurowe oraz takie, które ciągle wymagają przeznaczonych dla nich maszyn fizycznych. W tak złożonej infrastrukturze niezbędne są sprawne systemy zarządzania i automatyzacji procesów, które ułatwią utrzymywanie środowisk, zarówno kontenerowych, jak i wirtualnych.
Wojciech Furmankiewicz
Regional Manager CEE, Red Hat
Już dawno minęły czasy, kiedy system operacyjny był instalowany ręcznie w pełnej postaci. Obecnie liczy się maksymalna unifikacja i automatyzacja procesu powoływania nowych środowisk. System operacyjny jest jednym z elementów definiowanych jako Infrastructure as a Code. Powinien zapewniać zautomatyzowaną konfigurację urządzeń sieciowych, systemów pamięci masowej oraz ich integrację z zewnętrznymi elementami budowanej infrastruktury.
Tomasz Pietrzak
Infrastructure Solutions Group Manager, Dell EMC
Polski rynek serwerów już od kilku lat rośnie bardzo dynamicznie, a nowych klientów stale przybywa. Odbywa się to wbrew wcześniejszym przewidywaniom, które głosiły spadek lub w najlepszym wypadku stagnację sprzedaży tych produktów, spowodowane wzrostem popularności chmury publicznej. Co istotne, dotyczy to każdego segmentu odbiorców tych urządzeń – nie tylko największych przedsiębiorstw, ale także średnich i małych firm, które również dostrzegają nowe możliwości wykorzystania serwerów. Tym bardziej, że ceny rozwiązań serwerowych znacznie się obniżyły a do tego są one bardzo łatwo skalowalne.
Artykuł Serwery i systemy operacyjne, czyli stare po nowemu pochodzi z serwisu CRN.
]]>Artykuł Windows 8.1 z największym wzrostem w 2014 roku pochodzi z serwisu CRN.
]]>Na topie wśród używanych w Polsce systemów jest nadal Windows 7. Co ciekawe, liczba użytkowników sprzętu z „Siódemką” w zasadzie nie zmienia się od roku – w 2014 r. przy pomocy Win7 wykonano 45,9 proc. odsłon stron internetowych, a rok wcześniej – 46,7 proc.
Przyspieszył natomiast powolny jeszcze na początku br. odwrót użytkowników od XP, co zapewne przełożyło się na spory wzrost udziału w rynku urządzeń z Windows 8.1 i silną pozycję 'Siódemki’. W grudniu 2014 r. za pomocą XP z siecią połączyło się 14,9 proc. internautów. Rok wcześniej było to 26,1 proc. Dane pochodzą z badania ruchu na stronach www.
Zmiany rok do roku pokazuje wykres obok. Natomiast udziały systemów operacyjnych według badania gemiusTraffic w tygodniu 12.01-18.01.2015 r. ilustruje tabela poniżej. Zmiana procentowa dotyczy różnicy w porównaniu z poprzednim tygodniem stycznia br. (5-11.01).
|
System |
Odsłony (%) Zmiana (p.proc.) |
|
Windows 7 |
45,71 |
||
Windows XP |
14,11 |
||
Android |
13,09 |
||
Windows 8.1 |
12,26 |
||
Windows Vista |
4,66 |
Artykuł Windows 8.1 z największym wzrostem w 2014 roku pochodzi z serwisu CRN.
]]>Artykuł Windows kontra Linux – walka wciąż trwa pochodzi z serwisu CRN.
]]>Nadal drugim co do popularności jest przestarzały i niewspierany już Windows XP (23,9 proc.), który właśnie z racji braku wsparcia absolutnie nie powinien być brany pod uwagę w jakichkolwiek zastosowaniach biznesowych.
Drugą grupę stanowią komputery, które pracują pod kontrolą różnych wersji systemu Mac OS X firmy Apple (6,4 proc.), z czego większość (4,1 proc.) to maszyny z najnowszą wersją systemu – OS X 10.9 Mavericks. Trzecią grupą systemów dla desktopów, którą można rozpatrywać jako rozwiązania dostępne ogólnie dla biznesu, a nie do specyficznych zastosowań (np. naukowych), są różne wersje dystrybucyjne systemu Linux. Zgodnie z przytaczanymi notowaniami, pod ich kontrolą pracowało na świecie 1,6 proc. komputerów stacjonarnych.
Nieco inaczej przedstawia się sytuacja w przypadku serwerów. Według notowań W3Techs (z pierwszej dekady października 2014 r.) większość serwerów, które pracują w globalnej sieci (66,9 proc.), działa pod kontrolą systemów klasy UNIX i podobnych (w tym różnych odmian Linuksa), a pozostała część (33,1 proc.) jest sterowana przez serwerowe rozwiązania z rodziny Windows. Należy jednak podkreślić, że dane te dotyczą serwerów internetowych (WWW, mail, FTP, DNS itp.), a nie ogółu urządzeń na tym rynku.
Za wyborem systemu operacyjnego Microsoftu przemawia przede wszystkim jego popularność oraz wynikająca z niej olbrzymia baza użytkowych aplikacji, a także powszechna podstawowa znajomość tego systemu wśród użytkowników komputerów, co eliminuje ewentualne koszty szkolenia personelu. Kolejną zaletą jest baza obsługiwanego sprzętu – klient decydujący się na komputer pracujący pod kontrolą Windows ma szeroki wybór konfiguracji sprzętowych. To umożliwia optymalne dopasowanie stanowiska roboczego do faktycznych potrzeb.
Kamil Krzywicki
Zachęcamy współpracujących z nami partnerów, aby zawsze starali się wspólnie z klientem przeanalizować korzyści płynące z wdrożenia danego środowiska systemowego. Pokazujemy im też, że nawet jeśli w przypadku niektórych rodzajów oprogramowania nie zarabia się dużo na odsprzedaży licencji, to świetnym źródłem późniejszego dochodu są usługi. W Polsce wciąż jest wiele firm, które przez ostatnią dekadę nie inwestowały w IT i nie stać ich na duży jednorazowy wydatek. Powinny być natomiast zainteresowane rozwiązaniami z otwartymi standardami i opartymi na systemie Linux, które mogą kupić w modelu abonamentowym.
Z kolei serwerowa odmiana tego systemu – Windows Server 2012 – to rozwiązanie, które zapewnia przedsiębiorstwom korzystanie w pełni z rozwiązań chmurowych Microsoftu i budowanie własnych, prywatnych chmur. W porównaniu z poprzednimi edycjami serwerowymi znacznie poszerzono możliwości obsługi sprzętu (do 1 TB pamięci RAM i 64 procesorów), co gwarantuje budowę wysoko skalowanych rozwiązań. Natomiast nowy format dysków wirtualnych VHDX umożliwia zwiększenie ich pojemności nawet do 64 TB. Warto przy tym pamiętać, że wybór rozwiązań Microsoftu nie musi oznaczać budowania zamkniętej platformy (bez problemu współpracuje z nimi np. chmura Novell SUSE Cloud).
Argumentem, który może przekonać potencjalnych klientów od dawna korzystających z oprogramowania Microsoftu do jego aktualizacji, jest fakt, że wsparcie producenta dla systemu Windows Server 2003 kończy się 14 lipca 2015 r. Mogłoby się wydawać, że z systemu serwerowego, opublikowanego w finalnej wersji ponad dekadę temu, korzysta obecnie niewiele firm. Nic podobnego – Windows Server 2003 okazał się produktem na tyle udanym (m.in. znaczne ulepszenia w Active Directory w porównaniu ze starszymi wersjami, wygodne w praktycznych zastosowaniach narzędzia administracyjne i mechanizmy zasad grupowych), że do dziś korzysta z niego bardzo wielu klientów komercyjnych.
Dla integratorów to dobra okazja, bo zmiany są konieczne i firmy, które muszą zaktualizować oprogramowanie serwerowe, nie unikną kosztów. W gestii wdrożeniowców pozostaje tylko przekonanie menedżerów, by wydatki wpływały na rozwój infrastruktury (kupno nowych serwerów z nowym systemem), a nie służyły do pokrywania strat w wyniku ataku na system serwerowy, który przestał być wspierany.
Według Carla Glauncha z Gartnera skala problemów związana z opóźnieniem migracji i korzystaniem z Windows Server 2003 po upływie terminu wsparcia może być znacznie większa od tej, z którą mieliśmy do czynienia po zakończeniu wsparcia dla systemu Windows XP. Dzieje się tak, ponieważ XP był systemem typowo konsumenckim, choć wykorzystywanym również w firmach. Jednak to właśnie na serwerach, a nie na poszczególnych stacjach roboczych, przechowywane są informacje o kluczowym, biznesowym znaczeniu.
Windows, w przeciwieństwie np. do wielu wersji dystrybucyjnych systemu Linux przeznaczonego dla desktopów, nie jest jednak oprogramowaniem bezpłatnym (chociaż przyszłość w tym zakresie jest nieznana, bo od czasu do czasu pojawiają się plotki o darmowych przyszłych wersjach – na razie pewna jest jedynie aktualizacja do Windows 10 dla posiadaczy wersji 8 i 8.1), a wartość licencji systemu operacyjnego stanowi znaczną część całkowitych kosztów wdrożenia. Wybór rozwiązania optymalnego ekonomicznie (OEM lub licencjonowanie zbiorowe) zależy od wielkości przedsiębiorstwa, skali działania i planowanego rozwoju.
Daniel Kierdal
System operacyjny funkcjonuje gdzieś głęboko w centrum danych, w kosztach infrastruktury, które klienci chcą ograniczać. Stąd rosnąca popularność zakupu tych rozwiązań w modelu subskrypcyjnym. Zresztą wokół form finansowania powstało wiele nieporozumień, objawiających się chociażby w raportach dotyczących kosztów wdrożenia Linuksa i rozwiązań zamkniętych. Często porównywane są tam systemy, które nigdy nie powinny stanąć obok siebie. Linux to rodzina rozwiązań i nie da się jej wprost porównać z innym systemem.
Warto pamiętać także o specyficznej odmianie licencjonowania, która umożliwia wydzierżawianie sprzętu pracującego pod kontrolą oprogramowania Microsoftu. Tego typu licencje producent oferuje nie tylko w odniesieniu do swoich systemów operacyjnych, ale również do popularnego pakietu Microsoft Office. Pozwala to chociażby na poszerzenie działalności o usługi wypożyczenia sprzętu (np. na różne szkolenia, prezentacje, targi itd.).
Fakt, że system Linux nie zyskał popularności wśród użytkowników indywidualnych, w żadnym razie nie oznacza, że nie należy proponować go klientom do zastosowań biznesowych. Wręcz przeciwnie, wiele wdrożeń tego systemu zakończyło się sukcesem. Linux na desktopach może być znacznie tańszy w utrzymaniu niż Windows, a resellerzy mogą dodatkowo zarabiać na pośredniczeniu w odsprzedaży usług producenta bądź oferowaniu swoich. W dużych środowiskach biznesowych raczej nie warto rozważać bezpłatnych dystrybucji, chyba że dział IT może „przeznaczyć” część swoich zasobów ludzkich na wsparcie dla użytkowników – lepiej wybrać komercyjną wersję dystrybucji, od podstaw przygotowaną pod kątem zastosowań biznesowych i zawierającą oprogramowanie ułatwiające funkcjonowanie danej stacji roboczej w praktycznie dowolnym środowisku serwerowym.
Przeciwnicy Linuksa podnoszą często argument braku oprogramowania dla firm na tę platformę (zarządzanie magazynami, aplikacje finansowo-księgowe itp.). O ile jednak można było się zgodzić z taką argumentacją jeszcze kilka lat temu, o tyle dziś jest to już błędny stereotyp. Na platformę Linux swoje produkty oferuje wielu polskich producentów oprogramowania. Również kwestia rozliczeń z ZUS nie jest już problemem dla płatników korzystających z innej platformy niż Windows, dzięki działającej od jakiegoś czasu internetowej platformie do obsługi płatności ZUS. Poza tym coraz więcej aplikacji oferowanych jest właśnie w modelu Software-as-a-Service, więc do korzystania z nich potrzebny jest tylko prosty system operacyjny i przeglądarka internetowa – Linux idealnie się do tego nadaje.
Wadą Linuksa natomiast może być mniejsza niż w przypadku systemów Microsoftu baza obsługiwanego sprzętu (zarówno wewnętrznych komponentów, jak i zewnętrznych akcesoriów podłączanych do komputerów). Jednak system ten charakteryzuje się dość niskimi wymaganiami sprzętowymi i zwykle bez większych problemów działa na starszych komputerach. Warto jednak zawsze przeprowadzić testy, bo w przypadku Linuksa „niespodzianki” mogą się przydarzyć w najmniej oczekiwanych sytuacjach.
Zaletą systemu Linux jest – paradoksalnie – jego mała popularność wśród użytkowników. Niszowy charakter tego systemu w roli oprogramowania zarządzającego stacjami roboczymi przekłada się na znacząco niższe „zainteresowanie” cyberprzestępców tą platformą. Liczba ataków sieciowych i próbek złośliwego kodu atakującego system Linux jest znacząco niższa od ilości malware’u nękającego stacje robocze pracujące pod kontrolą systemów Microsoftu. Co nie znaczy oczywiście, że można całkowicie zaniedbać działania ochronne.
Jedną z polskich „specjalności” (w myśl powiedzenia: „Polak potrafi”) jest częste korzystanie z systemu Linux bez wykupionego wsparcia technicznego. W ten sposób można, przynajmniej teoretycznie, sprowadzić do minimum koszty nabycia i obsługi takiego środowiska. Jest to sytuacja dopuszczalna, gdy w firmowym zespole IT jest prawdziwy ekspert w zakresie obsługi i administracji systemów Linux. Jednak, jak pokazuje doświadczenie przedsiębiorstw, które próbowały tego modelu, wiedzę takich osób zdecydowanie lepiej wykorzystać do rozwoju środowisk IT (tak, aby skuteczniej wspomagały pracę działów biznesowych), a kwestie związane ze wsparciem zostawić zajmującym się takimi usługami firmom trzecim, np. resellerom.
Za wyborem platformy systemowej Apple przemawiają głównie argumenty związane ze wsparciem producenta (system jest dostarczany razem z komputerami i bezpłatnie uaktualniany do kolejnych wersji) oraz brakiem jakichkolwiek problemów z kompatybilnością oprogramowania i sprzętu, głównie za sprawą ograniczonej, zamkniętej platformy. System OS X może być legalnie wykorzystywany wyłącznie na komputerach firmy Apple, jakiekolwiek inne próby instalacji i korzystania z niego (chociaż technicznie jest to możliwe na komputerach PC) są niezgodne z licencją.
Baza oprogramowania użytkowego na platformę Apple jest mniejsza niż w przypadku Windows, ale też – inaczej niż w systemach linuksowych – użytkownicy OS X mają dostęp do profesjonalnych pakietów oprogramowania (np. narzędzi graficznych Adobe). Dla systemu OS X oferowany jest również pakiet Microsoft Office.
Niestety, niski koszt licencji oprogramowania nie oznacza niższych kosztów wdrożenia, głównie z powodu wysokich cen samych komputerów Apple (w porównaniu z maszynami PC o zbliżonych parametrach i wydajności). To powoduje, że zainteresowanie tymi komputerami podczas zakupów inicjowanych przez same firmy jest niewielkie, ale są one dość często spotykane w firmowej infrastrukturze, głównie w związku z trendem BYOD. Administratorzy nie uciekną więc od konieczności zarządzania nimi. Warto zatem, proponując im rozwiązania do zarządzania urządzeniami końcowymi, oferować oprogramowanie, które obejmuje także komputery z systemem Mac OS.
W przypadku fizycznego sprzętu i zainstalowanego na nim oprogramowania najczęściej mamy do czynienia z dwoma modelami pracy. Pierwszy polega na tym, że użytkownik korzysta z wielu maszyn w różnych miejscach, podczas gdy w drugim użytkownik korzysta z jednego urządzenia (np. laptopa lub tabletu), z którym wszędzie się przemieszcza. Oba modele mają swoje wady. Praca na wielu urządzeniach wymusza konieczność ciągłego utrzymywania aktualnych danych na wszystkich używanych platformach sprzętowych bądź zapewnienia stałego dostępu do centralnie przechowywanych danych. Natomiast w przypadku rozwiązań mobilnych znacznie rośnie ryzyko utraty bądź zniszczenia sprzętu i wycieku znajdujących się na nim danych.
Dobrym wyjściem z tej sytuacji jest zaoferowanie klientom wirtualnych stacji roboczych, dzięki którym użytkownicy mogą korzystać z zalet obu tych modeli pracy, a wady tych modeli są wyeliminowane. Tego typu narzędzia oferuje m.in. Microsoft, jako jednen ze składników platformy Windows Server 2012 (konkurencyjnymi rozwiązaniami dysponują Citrix i VMware). Microsoft wielokrotnie wspominał też w mediach o wprowadzeniu do oferty usługi określanej jako Windows as a Service (nazwa kodowa „Mohoro”), która umożliwi korzystanie z tego najpopularniejszego systemu operacyjnego w chmurze. Rozwiązanie to nie zostało jeszcze udostępnione publicznie w gotowej, komercyjnej wersji, nie wiadomo więc, jaka dokładnie będzie jego funkcjonalność i czy będzie przeznaczone do odsprzedaży w kanale dystrybucyjnym.
Więcej na temat wirtualnych desktopów piszemy w artykule „Wirtualnie na wszystkich frontach” na str. 18.
Artykuł Windows kontra Linux – walka wciąż trwa pochodzi z serwisu CRN.
]]>Artykuł Dźwignia dla integratorów pochodzi z serwisu CRN.
]]>
Sposób na przetargi
Senetic to jedna
z najlepiej radzących sobie spółek w segmencie przetargów
publicznych. W drugim kwartale 2012 r. była nawet wiceliderem
w tej dziedzinie pod względem liczby wygranych zamówień na IT
– lepsze okazało się tylko Asseco. Dobra passa trwa nadal: dzięki
niedawnej decyzji Agencji Restrukturyzacji i Modernizacji Rolnictwa
katowicka spółka sprzedała za ponad 900 tys. zł 120 subskrypcji na
licencje VMware. O wyborze dostawcy zdecydowała najtańsza oferta. Zarząd
Senetica nie kryje, że atrakcyjne ceny to główny punkt strategii spółki.
W tym celu stawia ona na bliską współpracę z producentami
i dystrybutorami oraz stara się optymalnie wykorzystać wybrane programy
partnerskie.
– Właściwie
w każdym przypadku jesteśmy
w stanie zaoferować partnerowi konkurencyjną cenę. Oczywiście to,
w jakim stopniu będzie ona lepsza od rynkowej, zależy od specyfiki
produktu lub konkretnego przypadku. Niemniej bardzo często zapewniamy wręcz zwielokrotnienie standardowej marży – podkreśla Marcin Białożyt, prezes zarządu
Senetica.
Marcin Białożyt
Jako że przychód z segmentu B2C w dalszym ciągu stanowi
znaczący procent w całej naszej sprzedaży, będziemy starali się stopniowo
oddawać tutaj pole naszym partnerom. Musimy mieć na uwadze ich dobro, ale
również dobro naszej firmy. Przetargi, w których nasi partnerzy nie będą w
stanie wziąć udziału, na przykład z powodu braku referencji lub zdolności
kredytowej, będziemy musieli obsłużyć samodzielnie.
To dobra wiadomość dla resellerów, którzy mają pełnić coraz
bardziej kluczową rolę w strategii spółki.
– Wygrana w przetargu dla ARiMR to jeden
z ostatnich naszych sukcesów na polu zamówień publicznych, na którym
będziemy działać wspólnie z partnerami – mówi Marcin Białożyt.
Siła przebicia
Obecnie Senetic
współpracuje z kilkudziesięcioma resellerami. W latach 2013–14 spółka
chce do kilkuset zwiększyć liczbę VAR-ów, z którymi będzie wspólnie
obsługiwać rynek zamówień publicznych. W ramach realizacji tego planu
kilka miesięcy temu zarząd Senetica wydzielił dział
obsługi partnerów strategicznych, który udziela kluczowym odbiorcom indywidualnego
wsparcia sprzedażowego i technicznego. Na razie w nowym dziale
pracuje kilka osób – ich liczba wraz z rozwojem kanału sprzedaży
wciąż rośnie.
– Najbliżej jest nam do
małych i średnich integratorów, którzy często nie mają doświadczenia we
współpracy z producentami lub po prostu odpowiedniej siły przebicia, żeby
wywalczyć najlepszą ofertę – mówi Marek Dąbrowski, Business Development
Manager w Seneticu. – Wydaje nam się, że to właśnie dla nich
stanowimy największą wartość, dzięki bliskiej współpracy z vendorami oraz
naszym kompetencjom.
Marek Dąbrowski dodaje, że w bieżącym roku zarząd
spółki ma koncentrować się przede wszystkim na realizacji założonej strategii
rozwoju w kanale B2B, w tym doskonaleniu jakości obsługi
partnerów.
– Natomiast wzrost sprzedaży, który oczywiście też
planujemy, nie będzie kluczowym elementem naszych starań, ale raczej pozytywnym
efektem działań w kanale partnerskim – podsumowuje przedstawiciel
Senetica.
O Senetic
Senetic zajmuje się dostarczaniem
kompleksowych rozwiązań w dziedzinie informatyki, telekomunikacji
i systemów bezpieczeństwa małym, dużym i średnim firmom oraz
instytucjom publicznym, a także klientom indywidualnym. Spółka koncentruje
się na dostarczaniu kompletnych rozwiązań dla serwerowni: od serwerów, storage,
backup poprzez rozwiązania sieciowe typu switching, routing, security, unified
communications, wireless aż po oprogramowanie serwerowe i środowiska
wirtualizacyjne. Drugim obszarem działalności firmy Senetic jest dostarczanie
oprogramowania dla stacji roboczych – są to programy użytkowe,
systemy operacyjne, oprogramowanie antywirusowe oraz graficzne. Najwyższy
poziom organizacji i rzetelności firmy Senetic potwierdzają certyfikaty
ISO 9001:2008, Certyfikat Wiarygodności Biznesowej oraz certyfikat Rzetelna
Firma.
Artykuł Dźwignia dla integratorów pochodzi z serwisu CRN.
]]>