Artykuł Puls branży IT pochodzi z serwisu CRN.
]]>Globalne wydatki na IT mają wzrosnąć w przyszłym roku o 5,1 proc. w porównaniu do obecnego, co oznaczałoby wejście na poziom 4,6 bln dol. Analitycy Gartnera oczekują silnego popytu, ponieważ przedsiębiorstwa będą inwestować w rozwiązania wspierające biznes w odpowiedzi na zawirowania gospodarcze. A jako że CIO mają za zadanie skrócić czas generowania wartości z inwestycji IT, przewiduje się, że firmy będą wykorzystywać technologie cyfrowe przede wszystkim do modyfikacji strumieni przychodów, dodawania nowych produktów i usług, zmiany przepływów pieniężnych oraz uzyskiwania wartości z istniejących produktów i usług. W ocenie analityków ma to fundamentalne znaczenie dla rozwoju chmury. Firmy przesuwają do niej nowe środki, na co wskazuje przewidywany 11-proc. wzrost wydatków na oprogramowanie w 2023 r. Jednocześnie przedsiębiorcom zależy na zwiększaniu wydajności operacyjnej, a zatem wydatki na IT zostaną też przeznaczone między innymi na tradycyjne potrzeby tzw. back-office’u. Z kolei w przypadku konsumentów wydatki na sprzęt mają się skurczyć o 8,4 proc. w 2022 r. i o kolejne 0,6 proc. w roku 2023.
Chociaż ponad 80 proc. resellerów i integratorów obawia się recesji w 2023 r., to ci działający w sektorze B2B mają powody do optymizmu – wynika z raportu Spiceworks Ziff Davis 2023 State of IT. W sumie bowiem 51 proc. przedsiębiorców planuje w tym czasie zwiększenie budżetów IT, podczas gdy jedynie 6 proc. deklaruje, że je obetnie. Przy czym firmy średnie (53 proc.) i duże (49 proc.) są dwa razy bardziej skłonne do „podkręcania” wydatków niż małe (27 proc.). W sumie co druga firma zapowiada działania przygotowujące ją na spowolnienie gospodarcze, w tym przeprowadzenie ponownej oceny dostawców, umów oraz likwidację niepotrzebnej infrastruktury. Z danych Spiceworks Ziff Davis wynika, że po niedawnych inwestycjach w modernizację, wielu przedsiębiorców zwraca się w kierunku usług zarządzanych w celu utrzymania i optymalizacji wciąż nowej infrastruktury IT (co jest między innymi efektem trudności z pozyskaniem fachowców). Wydatki na usługi zarządzane w Ameryce Północnej i Europie mają wzrosnąć w sumie do 18 proc. budżetów IT w 2023 r., wobec 15 proc. przed pandemią. Największa część przypada na zarządzanie, a więc aplikacje biznesowe, zabezpieczenia, hosting, wsparcie i utrzymanie sprzętu. Co ciekawe, plany wydatków na chmurę spadły rok do roku o 3 pkt. proc., do poziomu 23 proc. budżetów IT (USA i Europa łącznie). Trzy najważniejsze obszary inwestycji to: rozwiązania zwiększające produktywność, tworzenie i przywracanie kopii zapasowych online, jak też aplikacje wspierające biznes. Laptopy i desktopy nadal stanowią zasadniczą część budżetów na sprzęt, a wydatki w tym zakresie jedynie nieznacznie zmniejszą się w porównaniu z wysokimi poziomami w czasie pandemii. Z kolei największa część budżetów na oprogramowanie ma być wydatkowana w przyszłym roku przede wszystkim na bezpieczeństwo, a w nieco dalszej kolejności na oprogramowanie zwiększające produktywność, które tym samym straciło swoją pozycję lidera wydatków w zakresie software’u.
Dynamika wzrostu dostaw serwerów zmniejszy się z 5,1 proc. w 2022 r. do 3,7 proc. w roku 2023 – prognozują eksperci TrendForce. Wynika to z trzech czynników, a pierwszym jest… poprawa podaży, co sprawia, że nabywcy nie będą już zamawiać na zapas. Po drugie, z uwagi na inflację i ryzyko problemów gospodarczych, firmy będą mniej inwestować i zastępować niektóre serwery usługami w chmurze. Po trzecie, powinien rosnąć popyt na niewielkie centra danych, a budowa hiperskalowych gigantów spowolni, w związku z sytuacją geopolityczną. Analitycy odnotowują, że niedobory materiałów do produkcji serwerów zmniejszyły się w drugiej połowie 2022 r., a ich podaż i dostawy w krótkim terminie znacznie się poprawiły. Zakładają, że w 2023 r. dostawy materiałów pozostaną zabezpieczone, a popyt na sprzęt będzie można bez problemu zaspokoić. Źródło: TrendForce
Stopień nasycenia polskiego rynku laptopami, tabletami i smartfonami nie zmienił się znacząco w ostatnim czasie, ale ich duża popularność przekłada się na stałe zapotrzebowanie na nowe modele i usługi. W ciągu ostatniego roku odnotowano natomiast zmianę w preferencjach konsumentów, którzy coraz częściej decydują się na bardziej mobilne urządzenia, z mniejszym ekranem. W badaniu Deloitte 60 proc. ankietowanych zakłada, że ich wydatki na urządzenia elektroniczne wzrosną w najbliższych miesiącach w porównaniu do 2021 r. (badanie przeprowadzono w lipcu br.), co może jednak wynikać z inflacji. Aż 9 z 10 kupowanych smartfonów w Polsce to nowe urządzenia. Główną przyczyną jest brak zaufania konsumentów do używanych i odnowionych modeli. Tylko trzech na dziesięciu ankietowanych byłoby gotowych zapłacić więcej za produkt bardziej przyjazny środowisku. Warto podkreślić, że w tym roku dużą popularność zdobyły inteligentne zegarki, które są jedną z niewielu tak dynamicznie rosnących kategorii urządzeń elektronicznych w Polsce. Posiadanie smartwatcha deklaruje już co trzeci Polak, czyli o 20 proc. osób więcej niż rok wcześniej. Sprzęt ten coraz częściej służy do śledzenia stanu zdrowia.
Zanosi się na to, że w 2023 r. polskie szpitale wydadzą więcej na bezpieczeństwo infrastruktury IT. Już w lipcu br. 46 proc. zakładało, że ich budżet na te cele wzrośnie. Analitycy spodziewają się, że ostatecznie ten odsetek będzie wyższy, na co wpływ ma możliwość pozyskania dotacji z NFZ. To zmiana na plus w porównaniu z poprzednimi latami, gdy więcej środków na cyberochronę miała do dyspozycji jedynie co trzecia badana placówka. Wydatki pójdą głównie na ochronę przed utratą danych. Wśród rozwiązań, które mają być wdrażane, specjaliści odpowiedzialni za infrastrukturę IT w placówkach medycznych wskazywali głównie systemy wykrywania i zapobiegania włamaniom (IDS+IPS) oraz ochronę urządzeń końcowych.
Artykuł Puls branży IT pochodzi z serwisu CRN.
]]>Artykuł Serwery: więcej opcji do wyboru pochodzi z serwisu CRN.
]]>Według analityków Omdii sytuacja z komponentami nie poprawi się przed drugą połową 2022 r. Natomiast Trend Force obawia się opóźnień w dostawach płyt głównych do serwerów. Na szczęście są też dobre wiadomości – cykl dostaw FPGA (Field-Programmable Gate Array) wynosi obecnie najwyżej 50 tygodni, a czas dostarczania czipów LAN skrócił się z 50 do 40 tygodni.
– Prognozy dotyczące sprzedaży serwerów w bieżącym roku opieramy na informacjach otrzymanych przez nas od producentów. Większość z nich zakłada utrzymywanie się problemów z dostępnością komponentów w pierwszej połowie 2022. Część z nich ostrożnie mówi o spodziewanej poprawie w drugiej połowie tego roku, ale Intel szacuje, że sytuacja ulegnie poprawie w 2023 roku – tłumaczy Paweł Bąk, Business Unit Manager – Data Center & IT Security w AB.
Co ciekawe, nie wszyscy narzekają na opóźnienia w dostawach komponentów. Na przykład IBM, bazujący na własnych procesorach, zapewnia, że dostarcza kupującym sprzęt w ciągu około czterech tygodni od złożenia zamówienia, czyli tak samo, jak przed kryzysem wywołanym zerwaniem łańcuchów dostaw.
Tak czy inaczej, rynek serwerów znajdzie się na fali wznoszącej. Według IDC w 2022 r. globalne przychody ze sprzedaży tych urządzeń wyniosą 114 mld dol., co oznacza roczny wzrost aż o 13,7 proc. Bardziej ostrożne są prognozy specjalistów Trend Force, którzy przewidują dwa możliwe scenariusze. Według optymistycznego wariantu nastąpi 4–5 proc. wzrost sprzedaży, zaś w pesymistycznym zakłada się, że ten wskaźnik wyniesie 3–4 proc. Trend Force prognozuje, że najszybciej, bo o 15 proc., będzie rósł segment serwerów ODM. Przy czym rodzimi resellerzy oraz integratorzy niewiele tutaj zyskają, bowiem większość tej klasy sprzętu zasili duże centra danych w Stanach Zjednoczonych.
Nie tylko cyfrowa transformacja
Bieżący rok powinien być wyjątkowy nie tylko ze względu na niepewność związaną z opóźnieniami w dostawach komponentów, ale również premierami dwóch platform Intel Sapphire Rapids i AMD Genoa. Wśród wielu nowinek technologicznych, które pojawią się w wymienionych układach, na szczególną uwagę zasługuje wprowadzenie interfejsu PCIe Gen5, który pozwala poprawić wydajności nośników SSD i pamięci operacyjnej RAM DDR5.
– Wzrost wydajności interfejsu PCIe Gen5 do wartości przepustowości rzędu 63 GB/s w obu kierunkach będzie miał istotny wpływ na możliwość stosowania jeszcze bardziej wydajnych dysków SSD w serwerach. To będzie miało bardzo duże znaczenie zwłaszcza przy działaniach znacząco obciążających układy pamięci masowej – zauważa Paweł Wójcik, IHG BU Lead w HPE.
Kolejnym czynnikiem napędzającym popyt na serwery powinno być „przebudzenie” części firm po pandemii. Należy się spodziewać, że niektórzy przedsiębiorcy przyspieszą swoje projekty modernizacyjne. Ponadto czasy zarazy uzmysłowiły wielu właścicielom biznesów, że cyfryzacja wcale nie musi być dla nich ciężarem, a wręcz przeciwnie – wybawieniem w trudnych okolicznościach. Nie bez przyczyny analitycy spodziewają się dalszego wzrostu inicjatyw związanych z cyfrową transformacją, co bezpośrednio przełoży się na sprzedaż serwerów. Kolejne miesiące z pewnością przyniosą ze sobą dalszy rozkwit sektora e-commerce, który niemal eksplodował na przestrzeni dwóch ostatnich lat. Rosnąca sprzedaż online wymusi na internetowych sprzedawcach inwestycje w platformy serwerowe. Producenci upatrują też swojej szansy we wzroście sprzedaży sprzętu w modelu usługowym. Tego typu opcję oferują w Polsce między innymi Dell oraz HPE, a więc liderzy globalnego i rodzimego rynku serwerów.
Specjaliści spodziewają się, że w tym roku organizacje chętniej niż do tej pory zainwestują w droższe konstrukcje o dużej mocy obliczeniowej i znaczących możliwościach w zakresie skalowania. Niewykluczone, że część przedsiębiorców odwróci się od tańszych systemów no-name. W czasie pandemii firmy często dokonywały zakupu tego, co akurat było pod ręką, w tym systemów no-name. Część nabywców mogła w ten sposób przekonać się o ich rzeczywistej niezawodności oraz poziomie bezpieczeństwa. Warto w tym miejscu powołać się na publikację „ITIC 2021 Global Server Hardware, Server OS Security Report”, gdzie zaprezentowano porównanie zabezpieczeń i funkcje 15 platform serwerowych. Najbezpieczniejszy okazał się system mainframe IBM Z – zhakowanych zostało jedynie 0,3 proc. tych serwerów. Natomiast drugie miejsce w tym zestawieniu zajęły ex aequo IBM Power Systems i Lenovo ThinkSystem, ze współczynnikiem na poziomie 3 proc. W sumie aż 44 proc. użytkowników serwerów typu white-box doświadczyło wycieku danych.
Zdaniem integratora
Widzimy na rynku wydłużenie czasu realizacji zamówień na serwery. Jedną z przyczyn tych opóźnień jest trwająca pandemia, ale powstały problem jest bardziej złożony i nie spodziewamy się rychłej poprawy. Szukając szybkich i sprawnych rozwiązań, skutecznie wdrożyliśmy w wielu firmach chmurę w miejsce dotychczasowej infrastruktury lokalnej. Wydaje się, że duża część rynku trwale przestawi się na ten kierunek. Chmura może być rozwiązaniem pozwalającym zapewnić ciągłość pracy i pełną niezależność od sprzętowych problemów na rynku serwerów.
X86 kontra reszta świata
Według danych IDC przychody z ubiegłorocznej sprzedaż serwerów x86 wyniosły blisko 90 mld dol., zaś pozostałych – 9,9 mld dol. Prognozy na najbliższe trzy lata nie przewidują zasadniczych zmian w proporcjach sprzedaży rozwiązań bazujących na architekturze x86 oraz pozostałych systemów. Według prognozy IDC, w 2024 r. obroty w segmencie x86 osiągną poziom 118 mld dol., a w pozostałych – 14 mld dol. W skład tej drugiej grupy wchodzą między innymi serwery z procesorami ARM, które idealnie sprawują się w smartfonach oraz tabletach.
Sporo zamieszania na rynku wywołał udany debiut komputerów Apple’a z autorskim procesorem M1, korzystającym z architektury ARM. Zupełnie inaczej wygląda sytuacja w przypadku infrastruktury dla centrów danych, gdzie dominują rozwiązania x86, choć ważni gracze poszukują alternatywnych rozwiązań. Microsoft zobowiązał się do zasilania 50 proc. zasobów chmury obliczeniowej Azure za pomocą serwerów z chipami ARM, zaś AWS już używa w swoich centrach danych procesorów bazujących na tej architekturze. Procesory ARM w połączeniu z akceleratorem GPU zasilają superkomputer Fugaku Fujitsu pracujący w w centrum badawczym w Japonii. Największym walorem tych układów jest energooszczędność oraz koszty wytwarzania – o połowę niższe od maszyn x86.
Część analityków uważa, że wykorzystanie ARM w centrach danych będzie rosnąć wraz popularyzacją rozwiązań open source, w tym dystrybucji Linuxa, Kubernetesa, baz danych MariaDB, MongoDB i wielu projektów Apache. Ekspansję mogą zahamować kłopoty Nvidii związane z finalizacją zakupu ARM.
Kolejną alternatywą dla x86 jest jednostka IBM Power. To układ opracowany z myślą o obsłudze środowisk wymagających dużej mocy obliczeniowej. IDC szacuje udział IBM Power Systems w światowym rynku serwerów na około 2 proc. Chipy opracowywane przez IBM, podobnie jak ARM, cechują się dużą energooszczędnością.
– Do tej pory działy IT, decydując o wyposażeniu serwerowni, nie analizowały kosztu energii elektrycznej pobieranej przez sprzęt. To było poniekąd poza ich odpowiedzialnością. Dziś, przy rosnących cenach energii, ale też rosnącej rzeszy firm zwracających uwagę na pozostawiony ślad węglowy, to wszystko zaczyna mieć znaczenie – tłumaczy Sebastian Jeliński, Senior Server Solutions Consultant w IBM-ie.
CPU i co dalej?
W centrach danych kluczową rolę odgrywają procesory CPU, aczkolwiek pojawia się dla nich konkurencja w postaci GPU oraz DPU. Jak powszechnie wiadomo, procesory GPU stworzono z myślą o animacji czy obróbce 3D, ale od pewnego czasu trafiają też do serwerów, gdzie odpowiadają za przetwarzanie dużych strumieni danych. Na znaczeniu zaczyna też zyskiwać DPU, czyli procesor koncentrujący się na obciążeniach zorientowanych na dane, takich jak transfer, bezpieczeństwo czy analityka. Tego typu układy opracowują tacy dostawcy, jak Intel (pod nazwą Infrastructure Processing Unit), Nvidia, Pensando czy Fungible.
Wzrost zainteresowania wyspecjalizowanymi chipami nie jest dziełem przypadku. Procesory z rodziny x86 świetnie nadają się do zadań ogólnego przeznaczenia, ale podczas realizacji wymagających zadań mogą być znacznie wolniejsze niż chipy zaprojektowane specjalnie do tego celu. Według Nvidii DPU ma odpowiadać zarówno za obliczenia, jak i bezpieczeństwo ruchu sieciowego. Z kolei Eric Hayes, CEO Fungible, wskazuje trzy zasadnicze obszary, gdzie zastosowanie tej grupy procesorów pozwoli poprawić wyniki, a pierwszym z nich jest przyspieszenie ruchu sieciowego. Sieci coraz częściej buduje się w oparciu o koncepcję SDN, co znacznie usprawnia ich działanie. Niemniej, kiedy oprogramowanie działa na procesorach ogólnego przeznaczenia, nie jest ono tak efektywne. Wprawdzie takie rozwiązania jak SmartNIC poprawiają funkcjonalność SDN, ale ich wydajność nie dorównuje oferowanej przez DPU. Drugim obszarem jest poprawa wydajności pamięci masowej. Ten efekt uzyskuje się poprzez uruchomienie NVMe przez TCP/IP i umieszczenie całego stosu na DPU. Dzięki takiemu rozwiązaniu pamięć flash nie musi być już bezpośrednio podłączona do procesora. Trzecią kwestią jest rozwiązanie problemu, jakim jest obciążenie podstawowego procesora x86 obsługującego wiele GPU.
Mnogość rozwiązań i dostępnych opcji otwiera zupełnie nowe możliwości przed projektantami platform serwerowych. Zapowiada się też ciekawa rywalizacja pomiędzy dostawcami procesów, którzy będą próbowali wypchnąć z centrów danych Intela oraz AMD.
Zdaniem specjalisty
W ostatnim kwartale 2021 rzeczywiście serwery były jedną z kategorii mocno dotkniętych problemami z brakiem komponentów i bardzo wydłużonymi czasami dostaw i produkcji. Dodatkowo w tej kategorii, gdzie znacząca część sprzedaży jest realizowana na bazie konfiguracji projektowych zamawianych w związku z konkretnymi wymaganiami klienta, zabezpieczenie się poprzez zbudowanie z wyprzedzeniem zapasów magazynowych nie jest do końca możliwe. Jednak naszej firmie udało się utrzymać pozytywny trend sprzedaży i zrealizować wzrosty względem poprzedniego roku. Pomimo tego, że znacząca część zamówionych w czwartym kwartale projektów zostanie dostarczona do nas, a więc i do partnerów, a także klientów dopiero w bieżącym kwartale.
Niedobory komponentów znacznie wpłyną na rynek, brak ich dostępności spowoduje wzrost ceny całego serwera. Uważam, że w bieżącym roku liczba sprzedanych urządzeń pozostanie na tym samym poziomie, co w roku 2021, ale będą to znacznie droższe konstrukcje. Jest to spowodowane wymaganiami klientów, którzy szukają rozwiązań o dużej mocy obliczeniowej. Biorąc pod uwagę wzrost cen energii, klienci będą szukać energooszczędnych rozwiązań. W tym roku nic nie zagrozi architekturze x86, ale jej popularność będzie wzrastać wraz z cenami energii. Co istotne, procesory ARM nie działają na x86 i na odwrót. Jeśli to się zmieni, łatwiej będzie się przesiąść na mniej energochłonne rozwiązania.
Artykuł Serwery: więcej opcji do wyboru pochodzi z serwisu CRN.
]]>Artykuł Puls branży IT pochodzi z serwisu CRN.
]]>Wzrost wydatków na IT w regionie EMEA w 2022 r. zwolni do 4,7 proc. w porównaniu z bieżącym rokiem – prognozuje Gartner. W 2021 r. oczekiwany jest wynik dodatni na poziomie 6,3 proc. Największa zmiana dotyczy jednak nie tego, ile pieniędzy wchłonie rynek, lecz jak IT będzie finansowane. Według analityków rozwiązania IT to już nie tylko narzędzia służące do wspierania biznesu, ale jego immanentna część, ich finansowanie przechodzi z „rubryki” kosztów operacyjnych (SG&A – koszty sprzedaży i ogólnego zarządu) do kosztów uzyskania przychodów lub kosztów własnych sprzedaży (COGS). W efekcie szefowie IT muszą znaleźć równowagę między oszczędzaniem a zwiększaniem przychodów. Coraz częściej będą więc sięgać po alternatywy w chmurze, aby jak najszybciej pokazać zwrot z inwestycji IT – przewidują eksperci. Co ważne, rozwój chmury zawiera w sobie również ten właśnie finansowy aspekt. Według Gartnera w 2022 r. wydatki na chmurę będą stanowić 12,5 proc. nakładów przedsiębiorstw na IT. Największy wzrost jest przewidywany w przypadku IaaS (+32,3 proc. rok do roku) oraz DaaS (+31,1 proc.).
Notebooki obronią rekord
Dostawy notebooków w 2022 r. zwiększą się o 0,3 proc. wobec 2021 r. – prognozuje TrendForce. Niby niewiele, ale trzeba pamiętać, że za nami już 2 lata ponad 20-procentowych wzrostów. Pomimo tego rynek obroni rekordowy poziom z br. Wprawdzie zmniejszy się popyt konsumencki, ale spadek ten zostanie zniwelowany przez wzrost zakupów ze strony przedsiębiorców – prognozują analitycy. Jeśli chodzi o dostępność komponentów, to zanosi się na to, że przynajmniej paneli do wyświetlaczy będzie w nadmiarze. Otóż producenci tych podzespołów tak się rozkręcili w ostatnich latach, że planują dostarczyć w 2022 r. aż 330 tys. paneli do laptopów. Jeśli tyle przenośnych PC nie zjedzie z taśm (a tak przypuszczają analitycy) dojdzie do nadprodukcji i w efekcie do spadku cen tych elementów.
Branże, które najbardziej skorzystają na chmurze
Szersze wykorzystanie technologii chmurowych w segmencie B2B w Polsce może przynieść gospodarce dodatkowo 121 mld zł w 2030 r., czyli 4 proc. PKB – ocenia raport McKinsey & Company. Z tej kwoty 22 mld zł przyniosłaby modernizacja (np. poprzez obniżenie kosztów, cyfryzację działalności operacyjnej firm, redukcję ryzyka i awarii), a 99 mld zł innowacje (w tym wzrost oparty o innowacje takie jak analityka, IoT, automatyzacja, przyspieszenie rozwoju produktu, zwinność operacyjna). Dodatkowy, choć trudny do oszacowania potencjał, mają technologie przyszłości, jakich powstanie lub wdrożenie umożliwi chmura (np. komputery kwantowe, AR-VR, blockchain i in). Prognozuje się, że za niemal dekadę najbardziej skorzystają na chmurze takie branże jak retail, FMCG oraz handel i logistyka. Kolejne miejsce na liście beneficjentów, co ciekawe, zajmuje budownictwo, a dopiero za nim autorzy raportu wymieniają: motoryzację, sektor publiczny, podróże, rolnictwo i przemysł wytwórczy. Jednak by przyspieszyć wdrożenia chmury w kraju, trzeba zdaniem analityków McKinsey’a skoncentrować się na wyeliminowaniu pięciu barier. Są to: brak odpowiedniej wiedzy na temat technologii chmurowych, niepewność regulacyjna, obawy o bezpieczeństwo danych, deficyt kompetencji IT oraz obciążenia finansowe. Przykładowo, dla 42 proc. ankietowanych najważniejszym powodem migracji do chmury są nadal oszczędności. 63 proc. dostawców usług IT przyznaje, że adopcję chmury hamują wymogi dotyczące bezpieczeństwa.
Zespoły bezpieczeństwa IT: szkolenia na nowo
Nie dość, że na rynku mamy do czynienia z deficytem fachowców od bezpieczeństwa IT, to jeszcze ich umiejętności mogą okazać się niewystarczające. W Polsce 85 proc. szefów IT firm z sektora finansowego dostrzega wzrost zagrożeń informatycznych, jednak 90 proc. utrzymuje, że nie ma problemu ze swoimi zabezpieczeniami, a 24 proc. czuje się „bardzo dobrze” ze swoją strategią i regulacjami. Ponadto 79 proc. uważa, że zespoły ds. bezpieczeństwa IT w ich organizacjach mają „wszystkie niezbędne umiejętności” do radzenia sobie z aktualnymi wyzwaniami. Ta pewność przynajmniej częściowo może wynikać z faktu, że wiele firm finansowych w kraju zastępuje VPN usługami opartymi na podejściu zero trust – 33 proc. już je wdrożyło, a 58 proc. ma taki zamiar w ciągu najbliższego roku. Optymizm szefów IT nad Wisłą nie jest jednak bezgraniczny – 61 proc. twierdzi, że w pewnym momencie ich zespoły ds. bezpieczeństwa IT „będą musiały zostać na nowo całkowicie przeszkolone”, a 44 proc. zakłada, że w przyszłości będzie musiało zatrudnić pracowników zewnętrznych, posiadających dodatkowe umiejętności, by zapewnić swoim organizacjom odpowiednie bezpieczeństwo. Źródło: Citrix
Serwery: największy dołek od 4 lat
Sytuacja na rynku serwerów nie napawa optymizmem – wynika z danych Contextu. W Polsce sprzedaż w dystrybucji w III kw. 2021 r. spadła o 14 proc. rok do roku, przy czym polski rynek rynek nie stanowi wyjątku w Europie. Na Starym Kontynencie w III kw. 2021 r. odnotowano najniższy wolumen sprzedaży od 4 lat (91 tys. szt.). Negatywny wpływ na popyt ma przejście od rozwiązań on-premise do chmury. Poza tym centra danych są coraz bardziej skoncentrowane na oprogramowaniu. Ze względu na powyższe trendy trudno liczyć na znaczący wzrost w najbliższych kwartałach. Nie pomagają też problemy z dostępnością komponentów. Z tego względu większe wzięcie mają konfiguracje typu „weź do magazynu i sprzedaj” niż systemy budowane na zamówienie. W sumie jednak wartość dystrybucji sprzętu sieciowego ogółem wykazuje tendencję wzrostową – biorąc pod uwagę pierwsze cztery tygodnie IV kw. 2021 r. O ile serwery nadal są w dołku, to storage utrzymuje się na poziomie z roku 2020, a najlepsze wyniki odnotowano w segmentach kopii zapasowych i macierzy flash. Dobra wiadomość jest też taka, że rosnące ceny powinny pozytywnie wpłynąć na przychody z sieciówki w kanale sprzedaży w przyszłym roku.
Artykuł Puls branży IT pochodzi z serwisu CRN.
]]>Artykuł Serwery: w kierunku specjalizacji pochodzi z serwisu CRN.
]]>Równolegle dostawcy oprogramowania tworzonego zgodnie
z trendem Software Defined Anything przekonywali, że dziś funkcjonalność
poszczególnych serwerów przestała mieć znaczenie. Ich zdaniem powinny być one
traktowane głównie jako systemy zapewniające moc obliczeniową i pamięć
operacyjną. Zaś same te zasoby i tak są poddawane szeroko rozumianej
wirtualizacji, a zarządzanie nimi odbywa się z wykorzystaniem
oprogramowania firm trzecich.
Dzieje się tak m.in. innymi dlatego, że w kontekście
serwerów coraz trudniej mówić o innowacyjności. To głównie producenci
chipsetów kładą duży nacisk na to, aby sprzęt od różnych dostawców był jak
najbardziej ujednolicony w warstwie logicznej i kompatybilny ze sobą.
Dlatego w naturalny sposób innowacyjność zaczęła dotyczyć raczej
oprogramowania. Zarówno tego tworzonego przez samych dostawców serwerów, jak
też firmy trzecie, z którymi ci współpracują.
W dużych
środowiskach, w których funkcjonuje kilkadziesiąt bądź kilkaset fizycznych
serwerów, takie podejście ma sens. Jednak u mniejszych klientów deprecjonowanie
wartości i funkcjonalności zwykłych serwerów nie powinno mieć miejsca.
Wskazuje na to przede wszystkim ich uniwersalność oraz cena, często zbliżona do
wartości rozbudowanego peceta wysokiej klasy.
Co więcej, w ofercie dostawców z roku na rok
pojawia się coraz więcej serwerów przeznaczonych do specjalnych zastosowań.
Najczęściej są to maszyny ze zminiaturyzowaną bądź wzmocnioną obudową, głównie
do zadań w obszarze Internetu Rzeczy. Przykładowo, do instalacji na
zewnątrz budynków lub warunkach niesprzyjających poprawnej pracy urządzeń
elektrycznych, takich jak wilgoć czy duże zapylenie. Oprócz tego producenci
serwerów coraz częściej nawiązują współpracę z dostawcami różnego typu
oprogramowania analitycznego i oferują appliance’y ułatwiające
przetwarzanie danych zebranych w ramach projektów Internetu rzeczy bądź do
uniwersalnych zastosowań w środowisku Big Data.
Ta swego rodzaju monotonia
na rynku serwerów „zmusiła” producentów do poszukiwania nowych form sprzętu, na
których będą mogli bazować podczas kolejnych kampanii promocyjnych. Efek-
tem ich pracy było powstanie tzw. serwerów modularnych, które ewoluowały
z infrastruktury kasetowej. Charakteryzują się tym, że trzy główne
komponenty urządzenia – moc obliczeniowa (procesor i pamięć), karta
sieciowa oraz pamięć masowa (dyski twarde lub SSD) – są oddzielone od
siebie i dostępne w postaci instalowanych w obudowie modułów,
które nie są w żaden sposób na stałe przypisane do siebie. Zarządzanie
zbudowaną w ten sposób infrastrukturą odbywa się z wykorzystaniem
dołączonego oprogramowania.
Jako główną zaletę modularnych serwerów producenci wskazują
to, że dzięki nim zmieniła się filozofia inwestowania w infrastrukturę
centrum danych. W przypadku serwerów kasetowych duży koszt stanowił zakup
obudowy (chassis) i inwestycja w tego typu sprzęt miała sens dopiero
wtedy, gdy taka obudowa była wypełniona minimum w 50–60 proc.
Dzisiaj, po dziesięciu latach i dzięki ciągłym spadkom cen sprzętu, tego
typu obudowy systemów konwergentnych kupuje się praktycznie wypełnione
i w razie potrzeby wymienia odpowiednie moduły na szybsze lub
pojemniejsze.
Według analityków agencji Moor Insights and Strategy
w ciągu najbliższych pięciu lat modularne serwery będą zajmowały aż
30 proc. rynku. Jeszcze bardziej optymistyczni są analitycy Gartnera,
którzy już w ubiegłym roku zrezygnowali z publikacji dorocznego
magicznego kwadrantu poświęconego infrastrukturze kasetowej i skupili się
właśnie na serwerach modularnych. Według nich w 2014 r. rozwiązania
te stanowiły już 26 proc. globalnej sprzedaży, a współczynnik ten
wyniesie 29 proc. w 2018 r. (średni roczny przyrost w wysokości
3 proc.).
Wojciech Kotkiewicz
Serwery modularne, choć stanowią bardzo ciekawe
rozwiązanie, są jednak nadal niszowe i niedocenione przez klientów. Ich
obecność w ofercie producentów to raczej efekt poszukiwania czegoś
„świeżego”, ciekawego, innowacyjnego. Klienci i partnerzy
z zainteresowaniem przyglądają się tym rozwiązaniom, natomiast obecnie
wzrost ich sprzedaży jest znikomy i na razie nie stanowią one zagrożenia
dla serwerów typu blade.
Natomiast wszyscy przedstawiciele polskich oddziałów firm
produkujących serwery, z którymi rozmawialiśmy, zgodnie podkreślają, że na
pewno jeszcze nie przyszedł czas na „pogrzeb” serwerów kasetowych. Ma na to
wpływ przede wszystkim bardzo duża liczba zainstalowanych u klientów
obudów. Często nie są one wypełnione w stu procentach i użytkownicy
wciąż liczą na nieprzerwaną dostępność kasetowych serwerów w momencie, gdy
w ich firmie nastąpi znaczący wzrost ilości danych wymagających
przetworzenia.
Jako główni odbiorcy serwerów modularnych wskazywane są
głównie duże przedsiębiorstwa oraz dostawcy usług IT – obie grupy firm
charakteryzują się tym, że trudno jest im przewidzieć skalę i tempo
rozwoju, co skłania do inwestycji w rozwiązania elastyczne i łatwo
skalowalne. Duże znaczenie ma też „gęstość” upakowania mocy obliczeniowej oraz
łatwe zarządzanie całą infrastrukturą.
VMware już kilka lat temu
prognozował, że wkrótce niemal 100 proc. wdrażanych w firmach
serwerów będzie poddawanych wirtualizacji. Wpływ na tak szybki rozwój tej
techniki miało mieć wprowadzenie przez Intela i AMD wsparcia dla
wirtualizacyjnych hypervisorów w procesorach i chipsetach obu tych
marek. Zweryfikowanie rzeczywistej wartości tego współczynnika jest niemożliwe,
ale raczej można założyć, że obecnie zwirtualizowano już znakomitą większość
fizycznych serwerów. Gdy ich infrastruktura szybko się rozrasta, wirtualnym
środowiskiem łatwiej jest zarządzać czy zapewnić jego wysoką dostępność
chociażby przez popularną funkcję przenoszenia działającej wirtualnej maszyny
z jednego fizycznego serwera na drugi w celu przeprowadzenia prac
serwisowych na danym sprzęcie.
Niekwestionowanym
liderem rynku wirtualizacji serwerów pozostaje nadal VMware, chociaż coraz
bardziej czuje na plecach oddech Microsoftu, a przedstawiciele obu firm
podkreślają, że wzajemna konkurencja w tym obszarze będzie zaciekła. Przy
czym rozwiązania tych producentów do najtańszych nie należą. Dlatego
w mniejszych środowiskach, w których nie ma konieczności stosowania
rozbudowanych narzędzi zarządzających, można pomyśleć o wdrożeniu
alternatywnej platformy wirtualizacyjnej, dostępnej w modelu open source.
Na świecie najpopularniejsze są dwa tego typu rozwiązania: Kernel-based Virtual
Machine (KVM) rozwijany przez Open Virtualization Alliance oraz XenServer,
rozwijany w ramach projektu Xen Project pod auspicjami The Linux
Foundation. Oba wirtualizatory dostępne są też w formie komercyjnej,
z zagwarantowanymi usługami wsparcia technicznego. KVM znaleźć można
w ofercie Red Hata, zaś licencje XenServer – w ofercie firmy
Citrix.
Robert Paszkiewicz
Najczęściej współpracujemy z partnerami o statusie
VAR, głównie różnego rodzaju integratorami, twórcami aplikacji internetowych
czy agencjami interaktywnymi. Firmy te na bazie naszej infrastruktury tworzą
własny produkt, np. sklep internetowy czy serwis streamingowy, który później
w postaci usługi oferują klientowi. Część z nich wykorzystuje naszą
wirtualną infrastrukturę do tworzenia własnych produktów dla klientów, inni zaś
korzystają z gotowych rozwiązań i zajmują się jedynie techniczną
administracją systemem operacyjnym czy innymi środowiskami klienta.
Serwery fizyczne
charakteryzuje stała dostępność zasobów dla użytkownika. Są one wyposażone
we własny dysk, procesor czy pamięć RAM, co – zdaniem wielu osób
– zapewnia większe bezpieczeństwo i stabilność. Tymczasem, jak
podkreślają dostawcy usług chmurowych, to serwery wirtualne, dzięki specjalnie
zaprojektowanej architekturze, są bardziej odporne na awarie. Za ich techniczne
utrzymanie odpowiada dostawca, który w razie potrzeby może przenieść maszynę
wirtualną z jednego fizycznego serwera na drugi. Nie bez znaczenia jest
także kwestia dostępności pamięci masowych.
– W naszej infrastrukturze stosujemy trzykrotną replikację
danych, dzięki czemu jesteśmy w stanie zapewnić ich wysokie bezpieczeństwo – podkreśla Robert Paszkiewicz, dyrektor
sprzedaży i marketingu w OVH. – Serwer wirtualny w chmurze publicznej, dzięki
dostępowi do infrastruktury centrum danych usługodawcy, może być rozbudowywany
w praktycznie nieograniczony sposób. Dodatkowe zasoby możemy aktywować
zgodnie z zapotrzebowaniem użytkowników.
Wojciech Zawada
Mimo że serwery są już
bardzo dojrzałymi produktami, producenci wciąż mogą wykazać się innowacyjnością
przy projektowaniu nowych modeli. Szczególny nacisk kładziony jest na szeroko
rozumianą ergonomię pracy. Tworzymy obudowy tłumiące dźwięk w modelach,
które nie są przeznaczone do pracy w centrum danych i często stoją
w jednym z pokoi biurowych. W przypadku serwerów przeznaczonych
do pracy w oddzielnych serwerowniach poprawiana jest efektywność
chłodzenia, np. dzięki wykorzystaniu cieczy lub dzięki optymalizacji przepływu
nieschłodzonego powietrza, i jednoczesnej niezawodnej pracy – takie
rozwiązanie pozwala na obniżenie kosztów klimatyzacji serwerowni. Do tego
dochodzą kwestie związane z zarządzaniem całą infrastrukturą – już
nie tylko przy pomocy konsoli administratora, ale także np. z telefonu komórkowego
czy tabletu.
Światowy rynek serwerów
Według analityków IDC w czwartym kwartale 2015 r.
światowy rynek serwerów wzrósł o 5,2 proc. (rok do roku). Był to
siódmy z kolei kwartał, w którym odnotowano wzrost – badacze
jako przyczynę wskazują trwający proces odświeżania przez firmy infrastruktury
serwerowej oraz konieczność inwestowania w nowy sprzęt w związku ze
znacznym przyrostem koniecznych do przetworzenia danych. Wartość sprzedaży
w całym 2015 r. (w porównaniu z 2014 r.) wzrosła
o 8 proc. i wyniosła 55,1 mld dol.
Analitycy
wskazują, że na ogólny wzrost sprzedaży wpływ miało duże zainteresowanie
serwerami klasy podstawowej i midrange, które najczęściej wykorzystywane
są w projektach wirtualizacyjnych. Systemy klasy high-end odnotowały wręcz
spadek sprzedaży – o 2,4 proc.
Niepodważalną zaletą jest też kwestia rozliczeń.
W przypadku usługi chmury publicznej użytkownik najczęściej płaci za
zasoby, które faktycznie zostały wykorzystane i nie jest ograniczony
comiesięczną opłatą. Natomiast z punktu widzenia administratora
technicznie obsługa obu rodzajów serwerów praktycznie odbywa się w taki
sam sposób. Dlatego wirtualne serwery dostępne w chmurze zdobywają coraz
więcej zwolenników.
– Jeżeli firmy nie mają restrykcyjnej polityki dotyczącej
przetwarzania wrażliwych danych w chmurze, to dostępne usługi wirtualnych
serwerów mogą być ciekawą alternatywą – podsumowuje Wojciech Kotkiewicz, Systems Engineer Manager
w ABC Data Value+. – Taka oferta
jest ciekawa dla klientów, którzy nie mają zaawansowanej infrastruktury
serwerowej i pamięci masowych, a chcieliby korzystać
z nowoczesnych rozwiązań bez ponoszenia sporych inwestycji. Co ważne, nie
stanowi ona zagrożenia dla partnerów, bo coraz więcej usług chmurowych odsprzedawanych
jest przez kanał partnerski, często zresztą również za pośrednictwem
dystrybutorów.
Dla użytkowników
największym plusem płynącym ze środowiska serwerów dostępnych w chmurze
jest jego bardzo duża skalowalność. Równocześnie mają dostęp do
najnowocześniejszej infrastruktury, zabezpieczonej w sposób, na który
najczęściej nie mogliby sobie pozwolić (zasilanie, chłodzenie, ochrona fizyczna
itd.). Samymi serwerami zarządzają natomiast profesjonalni administratorzy,
których zatrudnienie w małych firmach jest coraz trudniejsze.
Z finansowego punktu widzenia decyzja o skorzystaniu z tego typu
infrastruktury ma sens w mniejszych środowiskach – oszczędności
wynikają głównie z braku konieczności budowy profesjonalnej serwerowni
oraz posiadania wykształconej kadry administracyjnej.
NAS zamiast serwera?
Wybrani producenci serwerów plików NAS postawili sobie za
cel stworzenie jak najbardziej uniwersalnych urządzeń. Dzięki temu sprzęt ten
nie musi służyć już tylko do udostępniania plików, ale może sprawować także
funkcję routera, serwera DNS, multimediów, poczty elektronicznej lub stron WWW,
systemu backupowego (także do chmury publicznej), modułu CMS, CRM, testowego
środowiska programistycznego, rejestratora obrazu z kamer wideo
i wielu innych. W tworzeniu tego typu rozwiązań wyspecjalizowały się
trzy firmy: Netgear, QNAP i Synology. W ich „sklepach” dostępnych
jest kilkadziesiąt aplikacji umożliwiających rozbudowanie funkcjonalności
serwera NAS.
Producenci klasycznych serwerów nie traktują jednak tej
konkurencji poważnie. Wskazują, że nie są to systemy uniwersalne.
W kontekście oprogramowania ich funkcjonalność jest ograniczona do oferty
aplikacji w sklepie, zaś fizyczna rozbudowa (np. dołożenie kolejnych
interfejsów sieciowych) bardzo rzadko jest możliwa. Podkreślają też, że nie
zetknęli się z projektami, gdzie wstępnie rozważane były klasyczne
serwery, a finalnie klient zdecydował się na kupno serwera NAS.
Artykuł Serwery: w kierunku specjalizacji pochodzi z serwisu CRN.
]]>Artykuł Meandry rynku serwerów pochodzi z serwisu CRN.
]]>Także w skali globalnej sprzedaż spada od kilku lat,
ale są pewne symptomy sugerujące, że trend ten może się odwrócić, przynajmniej
na jakiś czas. Jak wynika bowiem z ocen analityków, na 2014 r.
w wielu firmach przypada koniec okresu użytkowania starego sprzętu, który
jest wymieniany na nowy. Zdają się to potwierdzać doniesienia Gartnera, który
informuje, że w II kwartale br. sprzedaż serwerów w regionie EMEA
wzrosła o 0,8 proc. Z jednej strony jest to symboliczna wartość,
a z drugiej – pierwszy wzrost od 11 kwartałów.
Ważne wnioski płyną
z analizy sprzedaży rozbitej na poszczególne technologie serwerowe.
Maszyny x86 przyniosły w II kw. 2014 r. przychody
o 12,7 proc. większe niż rok wcześniej. Z tego wynika, że za
kiepskie wyniki odpowiadają spadające gwałtownie przychody w segmentach
RISC/Itanium UNIX (aż o 23,6 proc.) oraz obejmujących pozostałe typy
serwerów, m.in. mainframe (17,8 proc.). Dwucyfrowe spadki nie były
zaskoczeniem, ale ich skala przewyższyła wartości prognozowane przez
analityków. Nie ma wątpliwości, że opisane trendy będą się utrzymywać
i nadchodzące lata będą zdominowane przez serwery x86.
Według IDC w końcówce
zeszłego roku sprzedaż serwerów na polskim rynku wyraźnie się zwiększyła, co
wydawałoby się świetną informacją dla resellerów. Jednak nie wszystkie czynniki
stojące za wzrostem związane były ze sprzedażą kanałową. Zdaniem analityków
największe zamówienia składał sektor publiczny oraz dostawcy usług. W tym
drugim przypadku spora część kontraktów mogła być realizowana
z pominięciem kanału partnerskiego.
Liderem rynku
w regionie CEE pozostaje HP, z udziałami na poziomie 41,4 proc. Na
drugim miejscu pojawia się IBM, zaś na trzecim plasuje się Dell, borykający się
ze spadkiem sprzedaży. Do tego vendora należy 10 proc. rynku. Jednak
niedługo w czołówce producentów nastąpi istotne przetasowanie
w związku z przejęciem przez Lenovo dwóch linii serwerów IBM: System
x oraz Pure System. W najbliższych latach chińska firma zamierza skupiać
się na czterech obszarach: analityce biznesowej, rozwiązaniach chmurowych, HPC
(High Performance Computing) oraz systemach zintegrowanych reprezentowanych
przez linię Pure System. Wokół nich będą budowane centra kompetencyjne,
w których resellerzy będą mogli podnosić swoje kwalifikacje. Lenovo
deklaruje, że będzie rozwijać technologie kupione od IBM-a. Producent podjął
również działania, które mają na celu zapewnienie ciągłości współpracy
z resellerami. Na początku 2014 r. uruchomiono program Winning in
Transition, którego celem jest informowanie partnerów handlowych
o kwestiach dotyczących operacji przejścia od partnerstwa z IBM-em do
współpracy z Lenovo oraz ofercie produktowej i wsparciu technicznym.
Do Intela należy
97 proc. udziałów w sprzedaży serwerowych procesorów x86. To jednak
nie usypia czujności producenta, który we wrześniu wprowadził nową, znacznie
udoskonaloną linię procesorów Xeon E5 v3. Najważniejsze nowości to zwiększenie
maksymalnej liczby rdzeni w jednym procesorze do 18 (12 w poprzedniej
generacji), zapewnienie zgodności z pamięciami DDR4 czy rozszerzenie
pamięci cache L3 do 45 MB. Efektem tych udoskonaleń jest wydajność
o 20 proc. większa w porównaniu z efektywnością poprzedniej
linii procesorów Xeon E5 v2. Można przypuszczać, że w ten sposób Intel
przygotowuje się na debiut rynkowy serwerów z układami ARM, które są
tańsze w produkcji i bardziej energooszczędne.
Monika Mróz
Jeśli chodzi o serwery, to najwięcej uwagi poświęcamy
maszynom opartym na rozwijanym przez Oracle procesorze SPARC wraz
z systemem operacyjnym Oracle Solaris. Dla nas szczególnie interesujące
jest rosnące zainteresowanie klientów korporacyjnych budową prywatnych chmur
obliczeniowych, które wymagają wyjątkowo wydajnej, skalowalnej
i bezpiecznej infrastruktury. Coraz więcej firm przekonuje się, że
popularna kilka lat temu strategia ujednolicenia infrastruktury w oparciu
o rozwiązania x86 nie przynosi efektu, ze względu na eksplozję liczby
maszyn wirtualnych i wzrost kosztów utrzymania. Strategia Oracle skupia
się przede wszystkim na upraszczaniu środowiska IT poprzez wykorzystanie zintegrowanych
rozwiązań.
Prace nad serwerowymi
procesorami ARM trwają od kilku lat. Prowadzi je m.in. AMD, które już przy
kilku okazjach publicznie pokazywało Opterony zbudowane w architekturze
ARM. Uruchamiano na nich system operacyjny Linux czy klaster Hadoop. Na razie
producent korzysta z rdzeni Cortex-A57, ale pracuje również nad własnym
rdzeniem, który otrzymał roboczą nazwę K-12. Zgodnie z zapowiedziami
pierwsze wyposażone w niego produkty mają zadebiutować w 2016 r.
AMD widzi rolę procesorów ARM szczególnie w zastosowaniach typu:
przechowywanie danych w chmurze lub w trybie offline (tzw.
coldstorage), analiza danych oraz obsługa usług i stron internetowych.
Tradycyjnie wprowadzeniu
nowych procesorów Intela towarzyszyły premiery serwerów od wszystkich uznanych
producentów, m.in. Cisco, Dell, HP, IBM i Lenovo. Wspólny mianownik dla
większości pokazanych modeli to wyraźne zwiększenie maksymalnej pojemności
pamięci RAM oraz dysków możliwych do zamontowania w serwerze. Na rynek
trafiły maszyny, do których można włożyć nawet 1,5 TB pamięci operacyjnej.
Oprócz tego klienci otrzymają znacznie większą moc obliczeniową.
W maszynach dwuprocesorowych da się korzystać nawet z 36 rdzeni (dwa
procesory po 18 rdzeni). Są to również pierwsze serwery z pamięciami DDR4.
W porównaniu z poprzednią generacją DDR3 są one
o 40–50 proc. szybsze i zużywają o jedną trzecią mniej
energii. Powszechny jest też ruch w kierunku lepszej współpracy
z nośnikami SSD (o pojemności nawet 2 TB) i zgodność
z protokołem PCI Express 3.0, który zwiększa szybkość transmisji danych.
Analitycy z IDC
przewidują nadejście tzw. Trzeciej Platformy (IDC Predictions 2014: Battles for
Dominance and Survival on the 3rd Platform). Jest to system składający się
z chmury obliczeniowej, urządzeń mobilnych, narzędzi do analizy Big Data
oraz mechanizmów społecznościowych. Raport wskazuje, że chmura publiczna jest
znacznie popularniejsza niż prywatna. Już teraz aż 75 proc. wydatków na
środowiska chmurowe na świecie stanowią inwestycje w instalacje publiczne.
Szacuje się, że w bieżącym roku około 25–30 proc. serwerów kupią
operatorzy działający na rynku public cloud. W 2017 r. ten odsetek ma
się zwiększyć do 43 proc. Również większość wydatków na IT ma się
przesunąć w kierunku chmur publicznych.
Bruno Murzyn
Jesteśmy
jedyną firmą, która oferuje zarówno procesory x86, jak i ARM. Naszym
zdaniem te technologie powstały po to, aby się wzajemnie uzupełniać
i jednocześnie zapewniać, aby koszt migracji między jedną a drugą
architekturą był znacznie niższy niż teraz. Dlatego też tworzymy rozwiązania
najlepiej dopasowane do potrzeb rynków serwerów o dużej gęstości (high
density), urządzeń wbudowanych (Embedded) czy produktów na zamówienie
(semi-custom). W dłuższej perspektywie AMD zaplanowało także swój własny
projekt rdzenia ARM.
Jednocześnie operatorzy największych centrów danych, np.
Amazon, Google czy Facebook, samodzielnie budują serwery na własne potrzeby.
Przykładem jest Open Compute Project, specyfikacja budowy serwerów opracowana
przez inżynierów z Facebooka. Z punktu widzenia użytkownika zaletą
takiego podejścia jest budowanie serwerów optymalnie dostosowanych do
konkretnych potrzeb. Ponieważ składają się tylko z niezbędnych elementów,
są tańsze od standardowych konstrukcji. Na razie z maszyn własnego
projektu korzystają tylko niektóre bardzo duże ośrodki obliczeniowe. Jednak,
podobnie jak z wieloma innymi rozwiązaniami, trend ten powinien
z czasem dotyczyć coraz mniejszych środowisk IT. Tym bardziej że maszyny
zbudowane zgodnie ze specyfikacją OCP sprawdzają się w środowiskach
wirtualnych. Jeśli opisane prognozy się sprawdzą, spora część serwerów może
trafiać do użytkowników końcowych z pominięciem kanału dystrybucyjnego.
Sprzedaż serwerów mainframe wciąż stanowi około
18 proc. całego rynku, ale co roku spada w dwucyfrowym tempie.
Urządzenia te są wypierane z rynku przez serwery x86, które są
zdecydowanie tańsze i coraz lepiej sprawdzają się w najbardziej
wymagających zastosowaniach. Co ciekawe, najnowsze maszyny mainframe niektórych
producentów powstają z wykorzystaniem procesorów x86 Intela. Przykładem
jest firma Unisys, która podjęła decyzję o wycofaniu specjalistycznych
procesorów, ponieważ okazały się wolniejsze i mniej skalowalne od układów
Intela. Podobnie postąpiło HP, które zapowiada, że w 2015 r. na rynek
trafią pierwsze serwery Non stop w architekturze x86. Dotychczas te
maszyny były wyposażone w układy Itanium. Nie wszyscy producenci
zaniechali jednak rozwijania własnych technologii. Przykładem jest Oracle,
który deklaruje koncentrację na rozwoju linii procesorów SPARC. Najnowszy model
M7 to pierwszy układ zawierający specjalizowane instrukcje, które przyspieszają
działanie oprogramowania Oracle (Software in Silicon).
Piotr Sobstyl
Statystyki sprzedaży serwerów opartych na architekturze ARM
wskazują, że są to wciąż produkty niszowe. Do osiągnięcia znacznego udziału
w tym rynku potrzebny jest stabilny ekosystem wraz z gotowymi
rozwiązaniami, które będą w stanie zaspokoić potrzeby odbiorców
i sprostać ich wysokim wymaganiom. Trudno będzie w krótkim czasie
– nawet w perspektywie 2–3 lat – doprowadzić do powstania
i rozwoju takiego ekosystemu. Tym bardziej że rynek dąży dziś do
standaryzacji i konsolidacji. W praktyce oznacza to skupianie się na
sprawdzonych i rozpowszechnionych rozwiązaniach. Natomiast przeprowadzenie
konsolidacji na eksperymentalnej platformie zawsze będzie ryzykownym
posunięciem.
Artykuł Meandry rynku serwerów pochodzi z serwisu CRN.
]]>Artykuł Puls Branży IT pochodzi z serwisu CRN.
]]>Ponad połowa (51 proc.) małych i średnich firm korzysta z cloud computingu – wynika z badania „Nowoczesne IT w MSP 2014”, przeprowadzonego przez Ipsos MORI dla Microsoftu. Spośród usług w chmurze najchętniej zamawiane są: e-mail (39 proc.), narzędzia do wymiany plików i dokumentów (23 proc.), przechowywanie danych i backup (21 proc.). Upowszechnia się wiedza na temat usług świadczonych w chmurze – 48 proc. respondentów deklaruje dobre zrozumienie tego terminu, zaś nie zna go 14 proc.
Pracownicy MSP są w większości przekonani o korzystnym wpływie cloud computingu na biznes. Przy czym 50 proc. uważa, że będzie rosło znaczenie chmury dla sukcesu podobnych im organizacji, a 11 proc. nie zgadza się z tym stwierdzeniem. W badaniu przeprowadzonym w marcu br. w Polsce wzięło udział 601 osób z firm zatrudniających do 250 pracowników.
Źródło: Microsoft
Przełom na rynku serwerów
W II kw. br. sprzedaż serwerów w regionie EMEA wzrosła po raz pierwszy od 11 kwartałów. Zdaniem analityków Gartnera był to przełomowy okres na tym rynku – wprawdzie w najbliższym czasie nie ma co liczyć na wyraźną poprawę, ale wygląda na to, że zakończyła się faza spadków, trwająca nieprzerwanie od II kw. 2011 r. W minionym kwartale sprzedano o 0,8 proc. więcej serwerów niż rok wcześniej, natomiast przychody dostawców zwiększyły się o 3,8 proc., do 3,22 mld dol. Napędem wzrostu były modele x86 – w ich przypadku odnotowano poprawę o 12,7 proc. (wartościowo), podczas gdy zbyt maszyn RISC/Itanium Unix spadł o 23,6 proc. W przypadku systemów mainframe można mówić o dwucyfrowym dołku (-17,8 proc.). W Europie Wschodniej nastąpił spadek obrotów na rynku serwerów o 1,6 proc. Z wyjątkiem IBM pięciu największych dostawców zakończyło kwartał na plusie. Co ciekawe, IBM wypracował większą sprzedaż modeli x86, które niebawem będą oferowane pod szyldem Lenovo (transakcja ma zostać sfinalizowana do końca br.). HP utrzymało pozycję lidera, zwiększając przychody na rynku serwerów o 7,3 proc., mimo że sprzedało o ponad 5 proc. mniej maszyn niż rok wcześniej.
Źródło: Gartner
Lepsze prognozy dla komputerów
W 2014 r. globalna sprzedaż komputerów będzie wyższa, niż przewidywano wiosną – stwierdziło IDC. Spadek w porównaniu z 2013 r. ma wynieść 3,7 proc., podczas gdy w maju br. firma badawcza prognozowała 6-proc. dołek w całym 2014 roku, a na początku br. – 6,1-proc. Oznacza to, że według nowej prognozy globalny rynek ma wchłonąć 303 mln urządzeń (a nie 291 mln, jak dotąd uważano). Popyt jest większy, niż sądzono wcześniej, głównie ze względu na wymianę sprzętu w firmach po zakończeniu wsparcia dla Windows XP. Kolejnym pozytywnym czynnikiem są duże zakupy chromebooków w edukacji (zjawisko nie dotyczy polskiego rynku). Ponadto zakupom PC sprzyja mniejsza konkurencja ze strony tabletów – w ich przypadku notuje się obecnie dużo mniejszy wzrost sprzedaży (jednocyfrowy) niż w poprzednich latach. Zainteresowaniu komputerami sprzyja również obniżka cen, wynikająca m.in. z wprowadzenia na rynek modeli z tanim systemem Windows 8.1 with Bing. Zdaniem analityków nie ma jednak powodu do entuzjazmu: w ich opinii są niewielkie szanse na trwały wzrost sprzedaży komputerów ze względu na spory wybór rozmaitych urządzeń. W 2015 r. nie należy też spodziewać się wyraźnego pogorszenia koniunktury – prognozowany spadek ilości sprzedanych urządzeń ma wynieść jedynie 2,3 proc. w odniesieniu do 2014 r.
Źródło: IDC
Nie mogą żyć bez smartfonu
Odsetek użytkowników smartfonów w Polsce wzrósł z 53 proc. w 2013 r. do 61 proc. w 2014 r.– wynika z badania „MEC Mobile Report”. Dane dotyczą internautów powyżej 15. roku życia. Zebrano je w maju br. Można się spodziewać, że klienci będą kupować więcej takiego sprzętu. Obecnie 13 proc. respondentów, którzy nie mają smartfonu, rozważa jego zakup, a blisko połowa z tych mających telefon od co najmniej sześć miesięcy myśli o jego wymianie na nowy. Większy popyt zapowiada także liczba użytkowników smartfonów, którzy nie wyobrażają sobie życia bez nich – jest ich już 27 proc., czyli o 5 punktów procentowych więcej niż w ub.r. Największy wzrost popularności smartfonów odnotowano w grupie osób w wieku 45–49 lat.
Źródło: MEC Mobile Report
Polscy klienci kupują więcej PC
W minionym kwartale producenci dostarczyli na polski rynek o 22,4 proc. więcej komputerów niż rok wcześniej – ustalił Context. To lepszy wynik niż w całym regionie EMEA, gdzie średnia dla 10 największych vendorów wyniosła 15,6 proc. W tej części świata takiego wzrostu nie było już od dwóch lat (wprawdzie w I kw. br. dostawy były na plusie, ale wyrażającym się liczbą jednocyfrową). Jako przyczynę ożywienia wskazuje się przyspieszenie wymiany sprzętu w firmach. Szczególnie duży wzrost miał miejsce w Europie Zachodniej (+28 proc.). Między innymi na największych rynkach – w Niemczech i Wielkiej Brytanii – popyt był wyraźnie większy niż rok temu.
Źródło: Context
Artykuł Puls Branży IT pochodzi z serwisu CRN.
]]>Artykuł Rynek serwerów w Polsce w 2009 r. pochodzi z serwisu CRN.
]]>Według firmy badawczej wartość rynku serwerów x86 (pracujących głównie w środowisku Windows i Linux) zmniejszyła się o 31 proc., a sprzedaż serwerów uniksowych i klasy mainframe spadła o 38 proc.
Artykuł Rynek serwerów w Polsce w 2009 r. pochodzi z serwisu CRN.
]]>