Artykuł Cicha rewolucja PC pochodzi z serwisu CRN.
]]>W bieżącym roku jest jednak inaczej i nie musimy zastanawiać się, jak po raz któryś z rzędu napisać innymi słowy o tym samym. Rynek sprzętu komputerowego jest bowiem w trakcie bardzo radykalnej metamorfozy. Wprawdzie obserwowane na nim zjawiska nie są nowe, ale skala ich występowania bardzo się zwiększyła. Przede wszystkim do lamusa odchodzą desktopy w tradycyjnych obudowach. Również notebooki z 15-calowymi ekranami, traktowane zwykle jako desktop replacement, które od dawna stanowiły ponad 90 proc. sprzedaży, przestają być standardem. Od wielu lat sprzedaż laptopów rosła, częściowo kosztem desktopów, ale w 2018 r. ten trend został zatrzymany. Obserwowany od kilku lat proces redukcji popytu na desktopy praktycznie się zatrzymał, za to przyspieszył w przypadku notebooków. Popularne obecnie pecety mają na pokładzie procesor Core i5, 8 GB pamięci RAM, dysk SSD o pojemności 240–256 GB i kosztują około 2,5 tys. zł – zarówno desktopy, jak i notebooki.
Od kilku lat rośnie oferta komputerów stacjonarnych zamkniętych w małych obudowach. Pierwsze takie konstrukcje pojawiły się już dawno temu. W maju 2010 r. w redakcji CRN Polska odbyła się debata, w której wzięli udział przedstawiciele najważniejszych producentów sprzętu komputerowego w Polsce („Nie desktopy, ale stacjonarne”, nr 3/2010). Już wtedy szukaliśmy odpowiedzi na pytanie, czy desktopy zamknięte w małych obudowach mają przyszłość. Przez wiele lat ich udział był marginalny, a boom na SFF, NUC czy Mini PC zaczął się w zeszłym roku.
Tu trzeba koniecznie zaznaczyć, że rosnący popyt na tego typu urządzenia nie wynika bynajmniej z atrakcyjnej oferty. Maszyny takie jak AiO czy malutkie pecety zamknięte w obudowie o pojemności 1 litra lub gabarytów dwóch kostek masła są dostępne w sprzedaży przecież od wielu lat. Również ich ceny są praktycznie takie same jak kiedyś. Dlaczego więc nie wybierano ich już trzy lub pięć lat temu? Bo dlaczego nie wybierano 10 lat temu, wiadomo – konstrukcje typu AiO wyglądały bardzo kusząco, ale za monitorem znajdował się zwykle desktopowy procesor i 3,5-calowy HDD, przez co komputer był głośny i szybko się nagrzewał. Z kolei SFF sprzed dekady był albo mało wydajny, albo bardzo drogi. Czemu więc dopiero w bieżącym roku wzrósł popyt na to, co można było kupić już kilka lat wcześniej? Odpowiedź jest prosta: urządzenia te zaczęły być wreszcie postrzegane jako pełnokrwisty komputer, a nie jego ubogi zamiennik.
– Dla użytkowników przez wiele lat bardzo ważna była świadomość możliwości rozbudowy komputera, choć praktycznie nikt z tego nie korzystał. Tymczasem pecety typu AiO czy SFF były postrzegane jako konstrukcje pozbawione tej możliwości – mówi Łukasz Rutkowski, Product Manager w polskim przedstawicielstwie Lenovo. – Współczesne małe desktopy można rozbudowywać i chociażby to przekonało klientów do ich zakupu. Choć nadal opcje zmiany dysku, karty graficznej czy choćby upgrade pamięci operacyjnej nie są wykorzystywane częściej niż kiedyś.
Zjawisko upgrade’u i tak przechodzi już do historii, bo dzisiejsi klienci zwykle nie kupują komputera po raz pierwszy. Bazując na zdobytej wiedzy, od razu wybierają właściwe konfiguracje. Zakup małych maszyn może więc być traktowany jako przejaw konsumenckiej dojrzałości.
W bieżącym roku widać bardzo duży wzrost popytu na małe konstrukcje. Co ciekawe, w pierwszym półroczu zmniejszyła się nieznacznie sprzedaż notebooków i wygląda na to, że niektórzy klienci zamiast maszyny przenośnej wybrali właśnie desktopa zamkniętego w małej obudowie.
– Użytkownicy przekonali się, że komputer stacjonarny w obudowie o pojemności nie większej niż 1,2 l jest tak samo wydajny jak tradycyjny desktop, a do tego jest cichy i nie zajmuje dużo miejsca. Jeśli klient szuka maszyny z mocną grafiką, to taką kupuje. Gdy potrzebuje dużo miejsca na dysku, wybiera odpowiednią pojemność. Jeżeli zaś nie wie, jakiego typu komputer wybrać, to reseller powinien mu pomóc w doborze sprzętu o właściwej konfiguracji – mówi Sebastian Antkiewicz, Client Solutions Lead w polskim przedstawicielstwie Della.
Redukcja popytu na tradycyjne desktopy jest szczególnie widoczna w przypadku HP.
– W bieżącym roku odnotowujemy ciągły wzrost zapotrzebowania na desktopy w małych obudowach. W trzecim kwartale stanowiły one już 80 proc. sprzedaży wszystkich maszyn stacjonarnych – mówi Anna Ostafin, Category Manager Consumer Product w polskim przedstawicielstwie HP.
W przypadku Della i Lenovo co drugi sprzedany w tym roku komputer stacjonarny to maszyna „małolitrażowa”. Obaj producenci twierdzą, że zainteresowanie tego typu sprzętem systematycznie rośnie.
Konstrukcje tzw. ultramobilne, czyli komputery, które ważą nie więcej niż 1,5 kg, z ekranem od 12,5 do 14,1 cala są dostępne od wielu lat, a od kilku – w całkiem przystępnych cenach. Od dawna producenci przewidywali, że takie właśnie notebooki staną się standardem, ale na naszym rynku niezmiennie królowały tradycyjne rozwiązania, czyli urządzenia słusznej wagi, niesugerujące bynajmniej używania mobilnego, z 15-calowym ekranem i ceną nie wyższą niż 1,5 tys. zł. Sytuacja uległa bardzo dużej zmianie w tym roku, a ciężkie i tanie laptopy, które jeszcze dwa, trzy lata temu stanowiły niezmiennie ponad 90 proc. rynku sprzętu przenośnego, przestały być wybierane powszechnie. Nowy trend również najlepiej widać w przypadku HP: popyt na ultramobilne rozwiązania tej marki rośnie bardzo szybko – w III kw. br. stanowiły one już ponad 40 proc. sprzedaży.
Również inni producenci notują skokowy wręcz wzrost zainteresowania sprzętem o wyższej jakości, choć trzeba zaznaczyć, że typów komputerów przenośnych jest tak wiele, iż trudno jednoznacznie wskazać, czy dany produkt należy jeszcze do kategorii dużych i tanich, czy już do nowoczesnych. Na przykład według IDC najpowszechniejsze kiedyś modele to takie, których grubość przekracza 20 mm, ale w ofertach niektórych producentów nawet najtańsze laptopy miały tylko 17 mm grubości. Dzieje się tak, bo technologia umożliwia coraz większy stopień integracji, a coś, co w przeszłości było rarytasem, teraz jest dostępne w najtańszych konstrukcjach, jak choćby SSD. Przedstawiciel Lenovo zwraca uwagę, że klienci coraz częściej dokonują świadomego wyboru, co w praktyce oznacza, że nie kierują się już przede wszystkim ceną.
– Kiedyś komputer o wyższych parametrach kosztował dużo więcej niż standardowy, dlatego użytkownicy z ograniczonym budżetem siłą rzeczy nie zawsze wybierali to, co chcieli, ale to, na co ich było stać – mówi Tomasz Szewczak, Commercial Notebooks 4P Manager w polskim przedstawicielstwie Lenovo. – Obecnie, choć różnice w cenie dość wyraźnie się zmniejszyły, coraz częściej obserwujemy, że klient nie kupuje sprzętu nawet sporo lepszego, a niewiele droższego, bo dokładnie wie, czego potrzebuje. Oczywiście nadal są klienci, i ta grupa wydaje się powiększać, którzy chcą zapłacić niemałe pieniądze za nietypową funkcjonalność czy choćby prestiż.
Konrad Wierzchowski, Key Account Manager, Acer
Małe desktopy zdecydowanie mają przyszłość. Wynika to stąd, że wszystkie urządzenia ulegają procesowi specjalizacji. Są coraz lepiej dostosowane do zadań, które za ich pomocą wykonujemy. Tak jak laptopy, z definicji przeznaczone do pracy mobilnej, doczekały się lżejszych i mniejszych wersji, tak samo dzieje się z maszynami stacjonarnymi. Komputery SFF i NUC zapewniają stosunkowo niewielką moc obliczeniową przy maksymalnej oszczędności miejsca. Natomiast tradycyjne modele stacjonarne zaspokajają potrzebę dużej wydajności, która jest niezbędna w grach. W przypadku gamingu, który jest ostatnio na fali, mamy do czynienia z popytem na wydajne, dobrze chłodzone PC – i tu sprawdzają się tylko konstrukcje w dużych obudowach.
Wszystko wskazuje na to, że 2018 jest kolejnym rokiem spadków sprzedaży sprzętu komputerowego. Jak wspomnieliśmy na początku, w pierwszym półroczu odnotowano popyt na desktopy na niemal takim samym poziomie jak rok temu. W pierwszym półroczu 2016, 2017 i 2018 r. krajowy rynek wchłonął odpowiednio: 326 tys., prawie 300 tys. i nieco ponad 290 tys. pecetów. Od kilku lat charakterystyczny dla segmentu sprzętu stacjonarnego jest bardzo duży udział pecetów lokalnej produkcji. Rekordowy pod tym względem był ubiegły rok – spośród 300 tys. sprzedanych maszyn ponad 140 tys. to były C-brandy, czyli prawie połowa.
Należy ponadto odnotować zmianę na pozycji lidera. Od lat zajmowało ją Lenovo, a teraz wybił się na nią Dell. Amerykański producent systematycznie zwiększa aktywność – w I połowie 2017 r. znalazł nabywców na 42 tys. komputerów, natomiast w I połowie br. liczba ta wzrosła o kolejne 10 tys.
Duże spadki odnotowywane są z kolei na rynku sprzętu przenośnego. W pierwszej połowie lat 2016, 2017 i 2018 sprzedano: ponad 840 tys., 800 tys. i 720 tys. urządzeń. Sądząc po wstępnych wynikach z III kw. br., cały ten rok zakończy się jeszcze większym spadkiem.
Od kilku lat popyt na pecety maleje, co wynika z kilku przyczyn. Po pierwsze rynek jest nasycony, a do tego kilkuletni komputer może jeszcze służyć z powodzeniem kolejny rok, więc większość użytkowników nie jest zdeterminowana do wymiany sprzętu. Ponadto od dłuższego już czasu dużemu zmniejszeniu uległy zamówienia ze strony sektora publicznego. Jednak według wszelkich znaków na niebie i ziemi już niebawem popyt na sprzęt komputerowy zacznie rosnąć i proces ten może potrwać nawet kilka lat.
Obserwujemy już ożywienie na rynku zamówień publicznych.
– W drugiej połowie bieżącego roku bardzo wzrosła liczba ogłaszanych postępowań przetargowych, w tym kilka bardzo dużych czeka na rozstrzygnięcie – mówi Tadeusz Kurek, prezes NTT System. – Spodziewam się w ciągu dwóch nadchodzących lat bardzo dobrej koniunktury w tym segmencie.
Jak wiadomo, bieżące fundusze z UE, jakie Polska ma do wykorzystania, dotyczą okresu od 2014 do 2020 r. Niestety, nie można jednoznacznie ustalić, jaka część funduszy przeznaczonych na inwestycje w infrastrukturę informatyczną jest jeszcze do wykorzystania – według jednych mniej niż 60 proc., według innych nawet 80 proc. Z pewnością ci, którzy zarządzają gospodarowaniem środkami na inwestycje, zdają sobie sprawę z tego, że proces od pomysłu i zamówienia sprzętu do finalnej realizacji transakcji zajmuje sporo czasu. Zbliżający się za dwa lata koniec 7-letniego okresu na wykorzystanie funduszy unijnych to niejedyny katalizator procesu decyzji o wymianie sprzętu. Kolejnym jest koniec wsparcia dla systemu Windows 7, co nastąpi w styczniu 2020 r. W związku z tym należy oczekiwać, że już w przyszłym roku, wraz z wymianą platformy systemowej, wielu użytkowników instytucjonalnych zdecyduje się również na wymianę sprzętu.
Gdy w 2014 r. zakończyło się wsparcie dla Windows XP, wzmożony popyt na komputery dla sektora biznesowego rozpoczął się już w połowie roku poprzedniego i trwał co najmniej do połowy 2014 r. Klienci indywidualni też zareagowali na decyzję Microsoftu, ale z pewnym opóźnieniem, stąd cały 2014 r. był bardzo udany na rynku pecetów. Jak wiemy, od tamtej pory zapotrzebowanie na sprzęt spada. Prawdopodobnie wskutek zakończenia wsparcia dla Windows 7 będziemy mieli do czynienia z podobną sytuacją. Należy więc oczekiwać, że od początku 2020 r. ruszą na zakupy klienci indywidualni, a pół roku wcześniej instytucjonalni. Być może więc niejedna firma czeka z wykorzystaniem środków unijnych do ostatniej chwili, by upiec dwie pieczenie na jednym ogniu? Zamiast kupować teraz sprzęt do istniejącej infrastruktury software’owej i borykać się z problemem wymiany systemu operacyjnego w całej firmie, można ją wyposażyć w całkiem nową platformę, tak sprzętową, jak i programową. Nie ma bowiem cienia wątpliwości, że w przypadku instytucji zakończenie przez producenta wsparcia systemu operacyjnego oznacza konieczność wymiany na nowy, choćby ze względu na aspekty związane z bezpieczeństwem. Swoją drogą warto zwrócić uwagę, że cykle od koniunktury do koniunktury na naszym rynku okazują się na swój sposób wymuszone. Druga transza środków unijnych jest do wykorzystania w latach 2014–2020. W 2014 r. zakończyło się wsparcie dla Windows XP, natomiast w 2020 skończy dla Windows 7. Przypadek?
Artykuł Cicha rewolucja PC pochodzi z serwisu CRN.
]]>Artykuł Laserowa stabilizacja pochodzi z serwisu CRN.
]]>Niezależnie od tego, kto miał lepsze wyczucie sytuacji,
ubiegły rok na polskim rynku laserowego sprzętu drukującego trudno uznać za
zaskakujący pod jakimkolwiek względem. Klienci coraz częściej kupowali
urządzenia wielofunkcyjne, powoli rosła też średnia cena urządzeń.
Z danych GfK Polonia wynika, że najbardziej wzrosły koszty zakupu
tradycyjnej drukarki laserowej – o 6,1 proc. (z 508 zł
w 2014 r. do 539 zł w 2015 r.). Nieznacznie – bo
zaledwie o 1 proc. – zwiększyła się natomiast średnia cena
laserowych kombajnów (z 880 zł do 888 zł).
Nie zmieniły się też
zasadniczo udziały rynkowe poszczególnych producentów. Trzeba jednak pamiętać,
że pozycja w ogólnym rankingu nie zawsze dobrze odwzorowuje rzeczywiste
znaczenie dostawcy. Niektórzy producenci, np. Kyocera Mita, Oki czy Sharp, są
obecni tylko w segmencie biznesowym, więc siłą rzeczy nie mogą zajmować
czołowych miejsc na liście tworzonej według kryterium, jakim jest wolumen
sprzedaży.
W przeciwieństwie do
segmentu atramentowego, gdzie w praktyce liczą się wyłącznie kombajny
(a drukarki jednofunkcyjne stanowią margines), w przypadku urządzeń
laserowych mamy do czynienia z bardzo dużą dywersyfikacją urządzeń.
Generalnie rynek jest podzielony na sprzęt jedno- i wielofunkcyjny. Ten
drugi wciąż zyskuje, zaś pierwszy traci.
– Laserowe urządzenia
wielofunkcyjne z roku na rok zwiększają udział w rynku
kosztem jednofunkcyjnych. W przypadku modeli laserowych drukujących
w formacie A4 te pierwsze stanowią już dzisiaj większość sprzedaży
– mówi Leszek Bareja, Product Manager w polskim oddziale Xerox.
Wzrost sprzedaży sprzętu wielofunkcynego kosztem
jednofunkcyjnego widać bardzo wyraźnie. w 2015 roku sprzedano ok. 20 tys.
więcej urządzeń wielofunkcyjnych i tyle samo mniej jednofunkcyjnych niż w
rok wcześniej.
– W związku ze spadkiem cen
sprzedaż urządzeń wielofunkcyjnych od lat rośnie, kosztem drukarek – twierdzi
Łukasz Rumowski, dyrektor Działu Rozwoju Produktu i dyrektor IT
w Arcusie (dystrybutor Kyocera Mita). – Większość klientów domowych
czy biurowych decyduje się na urządzenia wielofunkcyjne, a klasyczne
drukarki są wybierane jedynie w przypadku, gdy dodatkowe funkcje nie mają
znaczenia, na przykład gdy chodzi o wydruk faktur w sklepie.
Najprawdopodobniej rynek kombajnów będzie się dalej powiększał, choć nie należy
się spodziewać, że zyskają one tak dużą przewagę nad drukarkami, jaką
obserwujemy na rynku sprzętu atramentowego.
Zarówno laserowe
urządzenia jedno-, jak i wielofunkcyjne dzielą się na monochromatyczne
i kolorowe. Dotychczas większym powodzeniem cieszyły się – w obu
przypadkach – modele monochromatyczne. W zeszłym roku po raz pierwszy
nabywców znalazło więcej urządzeń wielofunkcyjnych (206,1 tys.) niż jednofunkcyjnych
(196,6 tys.).
Niekwestionowanym numerem jeden na krajowym rynku druku
– tak atramentowego, jak laserowego – pozostaje HP Inc.
W zeszłym roku amerykański producent wprowadził na rynek ponad 130 tys.
laserowych urządzeń drukujących, w tym ponad
75 tys. jednofunkcyjnych i 57 tys. wielofunkcyjnych. Popyt na sprzęt tej
marki najbardziej zwiększył się w przypadku urządzań monochromatycznych
wielofunkcyjnych, co pozwoliło temu dostawcy wrócić na pierwsze miejsce
w rankingu (po rocznej detronizacji za sprawą Brohera, który w 2014 r.
sprzedał aż 42 tys. jednofunkcyjnych kombajnów).
Laser AD 2016
Według większości specjalistów w bieżącym roku nie należy
spodziewać się spektakularnych zmian na rynku druku laserowego. Dotyczy to
również samej konstrukcji urządzeń, gdyż technika druku laserowego wydaje się
tak dopracowana, że trudno o innowacje, które mogłyby znacząco wpłynąć na obraz
rynku. Można natomiast spodziewać się niewielkiego spadku cen kombajnów, tak
monochromatycznych, jak kolorowych. Zdaniem producentów takie urządzenia będą
się cieszyły coraz większym popytem ze względu na dodatkowe funkcje związane z
bezpieczeństwem czy redukcją kosztów obiegu dokumentów.
W przypadku drukarek jednofunkcyjnych
monochromatycznych HP Inc. zwiększyło udział w rynku z 33 do
38 proc., sprzedając 67 tys. urządzeń, czyli dwa razy tyle co drugi na
liście Brother. W przypadku drukarek jednofunkcyjnych kolorowych
amerykański producent cieszy się prawie 40-proc. udziałem w rynku, zaś
w segmencie wielofunkcyjnych kolorowych dzieli pozycję lidera
z Konicą Minoltą – obaj dostawcy sprzedali nieco ponad 7 tys.
sztuk tych urządzeń.
Brother – według deklaracji samego producenta
– sprzedał w zeszłym roku 39 tys.
monochromatycznych wielofunkcyjnych urządzeń laserowych i 5,6 tys.
kolorowych kombajnów. Również w przypadku urządzeń jednofunkcyjnych producent
ma powody do zadowolenia.
– Zwiększyliśmy sprzedaż laserowych
drukarek monochromatycznych. Wyniosła ona niemal 34 tys. sztuk. Na koniec
2015 r. mieliśmy 19,5 proc. rynku i zajmowaliśmy drugą pozycję
w tej grupie produktów – mówi Piotr Baca, szef polskiego
oddziału Brothera.
Duże dysproporcje w liczbie sprzedanego sprzętu
pomiędzy poszczególnymi graczami nie wynikają jedynie z trafności
podejmowanych decyzji biznesowych czy dobrej promocji marki. Trzeba wziąć też
pod uwagę między innymi różnice w wielkości portfolio produktów.
Przykładowo przedstawiciele Oki, które nie należy do liderów tegorocznego
rankingu, deklarują zadowolenie z uzyskanych wyników.
– W 2015 r. sprzedaliśmy
20,3 tys. laserowych urządzeń drukujących. Należy jednak pamiętać, że
w naszej ofercie znajdują się tylko produkty dla biznesu. Tymczasem firmy
analityczne w ogólnym zestawieniu sumują sprzedaż urządzeń biznesowych
i konsumenckich. Dlatego na czele znajdują się producenci, którzy mają
w ofercie urządzenia zarówno dla biznesu, jak i low-endowe –
podkreśla Piotr Parys, Channel Marketing Manager na region CEE w Oki
Systems Polska.
Podobnie o swoich wynikach mogą mówić przedstawiciele
takich producentów jak: Xerox, Kyocera Mita, Ricoh czy Sharp. Ceny nawet
najtańszych modeli urządzeń tych producentów są bardzo dalekie od statystycznej
średniej, która wynosi niespełna 900 zł. Dostawcy ci są bardzo dobrze
znani w segmencie rozwiązań dla dużego biznesu oraz w niszowym
segmencie urządzeń drukujących formatu A3. Przykładem jest Sharp, który podkreśla,
że w zasadzie nie jest dostawcą urządzeń drukujących, ale „kompleksowych
rozwiązań w zakresie druku”.
– Według IDC Sharp był najczęściej wybieraną w Polsce
marką czarno-białych urządzeń wielofunkcyjnych A3 w III kwartale
2015 r. Nasza firma zajęła też drugie miejsce pod względem łącznej sprzedaży
MFP A3 w tym okresie. Naszą mocną pozycję potwierdziły wyniki sprzedaży za
I kwartał 2016 r., kiedy to sprzedaliśmy prawie 850 urządzeń, podczas
gdy nasza cała zeszłoroczna sprzedaż wyniosła 2161 sztuk – podsumowuje Szymon Trela, Product Manager CEE
w Sharp Electronics Europe.
Artykuł Laserowa stabilizacja pochodzi z serwisu CRN.
]]>Artykuł Drożej, znaczy taniej pochodzi z serwisu CRN.
]]>Poza HP Inc. doskonałymi wynikami może pochwalić się
Brother. W 2015 r. jego polski oddział sprzedał ok. 145 tys.
atramentowych urządzeń wielofunkcyjnych. W efekcie zajął drugie miejsce na
rynku, a jego udział zwiększył się z 19,8 proc.
w 2014 r. do 26,9 proc. w 2015 r.
Niewątpliwie ubiegły rok należał do bardzo udanych również
dla Epsona. Producent znalazł nabywców na tyle urządzeń, co w latach 2013
i 2014 razem i ma duży apetyt na kolejne wzrosty.
– Wolumen sprzedaży w zeszłym
roku przekroczył 40 tys. sztuk. W obecnym oczekujemy wzrostu popytu na nasze
atramentowe rozwiązania biznesowe na poziomie od 30 do 50 proc.
w stosunku do lat poprzednich – mówi Krzysztof Modrzewski,
National Sales Manager w polskim oddziale
Epsona.
Przedstawiciel producenta
uzasadnia optymistyczne przewidywania tym, że na naszym rynku – jego
zdaniem – rośnie grono klientów, którzy poszukują rozwiązań ekologicznych
oraz o niskim współczynniku TCO. Epson ma powody do zadowolenia, bo
zwiększył swoje udziały nie tylko pod względem ilości sprzedanego sprzętu, ale
też wartości. Spora część urządzeń tego dostawcy bazuje na rozwiązaniach
z systemem samodzielnego uzupełniania atramentu, a te nie należą do
najtańszych.
Optymistyczne plany na przyszłość można uznać za realne
w świetle zeszłorocznych wyników. Ale czy rzeczywiście osiągnięcia są
duże? Jeśli porównać je z wynikami z ostatnich lat, niewątpliwie tak,
ale trzeba też pamiętać, że nie dalej jak na początku obecnej dekady Epson
należał do ścisłej czołówki w tym segmencie rynku, sprzedając rocznie
prawie 150 tys. urządzeń. Nie wiadomo też, na ile do obecnego sukcesu tego
dostawcy przyczyniło się umiejętne korzystanie z obniżki formy, jaką można
zaobserwować w przypadku Canona. Jak duże były to spadki? Pytanie
pozostaje otwarte. Z danych, jakimi dysponuje CRN Polska, wynika, że
atramentowe urządzenia drukujące z logo Canon stanowiły nie więcej niż
10 proc. całego rynku. Szacunki oparliśmy na arytmetyce. Sprzedaż w 2015 r. wyniosła całościowo 540 tys. sztuk,
zaś HP, Brother i Epson sprzedali łącznie 488 tys. urządzeń. Stąd wyniki Canona
w naszym raporcie na poziomie 40 tys.
sztuk.
Należy zastrzec, że trudno precyzyjnie określić również
wielkość całego polskiego rynku pod względem ilości sprzedanych urządzeń
atramentowych. Nie wiadomo też, czy średnia cena atramentowego sprzętu
drukującego uległa zmianie. Zdania na ten temat są podzielone.
– Z danych rynkowych wynika, że
w zeszłym roku odnotowaliśmy nieznaczny wzrost sprzedaży ilościowej sprzętu
drukującego przy minimalnym spadku wartości, co w praktyce oznaczałoby, że
wzrosła sprzedaż tańszych rozwiązań – mówi Piotr Łopata,
Product Manager Brothera, Oki oraz Xeroxa w ABC Dacie.
Innego zdania są analitycy GfK Polonia, którzy udostępnili
nam wybrane dane dotyczące polskiego rynku. Wynika z nich, że
w 2015 r. średnia cena atramentowego wielofunkcyjnego urządzenia
drukującego wynosiła 354 zł, zaś w 2014 r. – 330 zł,
co oznacza wzrost o ponad 7 proc.
Trzeba pamiętać, że
w zeszłym roku w ramach supermarketowych promocji do klientów trafiło
kilkadziesiąt tysięcy bardzo tanich atramentówek. Jeśli mimo to średnia cena
wzrosła, jasnym jest, że zwiększył się popyt na droższe modele.
Jak będzie się kształtował
rynek atramentowego sprzętu drukującego w 2016 roku? Z pewnością nie należy oczekiwać radykalnych zmian
popytu. Wygląda na to, że sprzedaż ustabilizowała się na poziomie między 500
a 600 tys. urządzeń. Nie oznacza to jednak stagnacji. Jesteśmy bowiem
świadkami swoistej rewolucji w preferencjach użytkowników urządzeń
atramentowych. Pierwszy jej etap już się rozpoczął, zaś drugi jest jeszcze
przed nami.
Pierwsza faza to oczywiście wzrost zainteresowania
urządzeniami z samodzielnie napełnianymi zasobnikami z tuszem. Gdy
w 2012 r. Epson wprowadził do oferty konstrukcje z rozwiązaniem
typu ITS, mało kto wróżył im sukces. Dziś drukarki tego typu oferuje trzech
z czterech dostawców tej kategorii sprzętu, a wydaje się, że prędzej
czy później również HP Inc. będzie miało w portfolio takie modele. Drugi
etap to duże zmiany w samej konstrukcji drukarki, która zaczyna coraz
bardziej przypominać urządzenie laserowe (szerzej na ten temat piszemy
w artykule „Nowa era plujek” na str. 75). Popularyzacja takich modeli może
przyczynić się do zwiększania popytu na rozwiązania atramentowe
w zastosowaniach biznesowych.
W zeszłym roku można było zaobserwować jeszcze jedno
dość zaskakujące zjawisko, jakim jest wzrost sprzedaży jednofunkcyjnych
drukarek atramentowych. Zdaniem przedstawiciela GfK Polonia popyt na tradycyjne
drukarki wzrósł ilościowo o 10 proc. Podobną tendencję obserwujemy od
kilku lat na rynku monitorów, gdzie rośnie zapotrzebowanie na wyświetlacze
o przekątnej długości 17 cali. Wydaje się, że w obu przypadkach jest
to jednoznaczny sygnał, że klienci dokonują coraz bardziej świadomych wyborów
i decydują się na zakup sprzętu zgodnego z rzeczywistymi potrzebami,
a nie podążają za ogólnie przyjętą modą. Być może zwiększenie zakupów tych
urządzeń jest przy tym proporcjonalne do wzrostu wartości dolara i euro…
Jeśli sprzęt drożeje, to klienci zastanawiają się, czy na pewno warto płacić za
niektóre funkcje.
Krótko mówiąc…
…ilość sprzedawanych na naszym rynku
atramentowych urządzeń drukujących nie zmienia się zasadniczo już od kilku lat,
…w zeszłym roku krajowy rynek wchłonął
ok. 540 tys. plujek, czyli o 10 tys. mniej niż w 2014 r.,
…w latach 2010–2012 obserwowaliśmy bardzo
duże spadki (od niemal 900 do ok. 600 tys. sztuk), później popyt zmieniał się
już w niewielkim stopniu,
…nieustannie rośnie oferta sprzętu
z pojemnikami do samodzielnego napełniania tuszem,
…uwagę zwraca duży spadek udziałów
rynkowych Canona.
Artykuł Drożej, znaczy taniej pochodzi z serwisu CRN.
]]>Artykuł Rośnie wartość pochodzi z serwisu CRN.
]]>Ewolucja LCD dokonała się zarówno od wewnątrz, jak i na
zewnątrz. Od wewnątrz, bo w monitorach coraz częściej stosowane są matryce
wysokiej jakości (IPS zamiast TN).
– W przypadku Philipsa i AOC ok.
75 proc. stosowanych w 2013 roku rozwiązań opartych było na panelu TN, zaś rok
temu udział takich konstrukcji zmalał niemal dwukrotnie, do 40 proc. –
mówi Paweł Ruman, Country Sales Manager MMD i AOC.
Do zmian zewnętrznych
zaliczymy: nowe proporcje ekranu (np. 21:9) i nowy kształt wyświetlacza
(ekran zakrzywiony do wewnątrz). Pod strzechy trafiają powoli rozwiązania
powszechnie stosowane w monitorach gamingowych. Można zaryzykować
twierdzenie, że to właśnie coraz większa popularność elektronicznej rozrywki
jest katalizatorem postępu w segmencie monitorów. Rosnący popyt na coraz
bardziej zaawansowane konstrukcje dla graczy przyśpiesza działanie działów
badań i rozwoju tak, jak G-Sync czy FreeSync przyśpiesza wyświetlanie
obrazu na ekranie. Efekty prac inżynierów najpierw są stosowane w sprzęcie
gamingowym, dopiero później w rozwiązaniach „cywilnych”. Dowód? Wspomniana
technologia AMD ATI FreeSync niebawem będzie wykorzystywana w modułach
graficznych Intela. A jak wiadomo, zintegrowana grafika jest stosowana
przede wszystkim w biurach i domach.
Obok wyrafinowanych
modernizacji w konstrukcji wyświetlaczy ciekłokrystalicznych koniecznie
trzeba zwrócić uwagę na rozmiar ekranu i przekątną. Ekran komputerowy
o przekątnej długości 22 cali i rozdzielczości Full HD jest obecny na
rynku od 2009 r., a w roli standardu występuje od 2011 r.
Sytuacja zaczęła się zmieniać w zeszłym roku. Zauważalnie bowiem wzrósł
popyt na monitory o przekątnych powyżej 24 cali, czyli przede wszystkim
urządzenia 27- i 30-calowe. Wcześniej sprzedaż wyświetlaczy o takich
przekątnych była śladowa, zaś rok temu praktycznie co dziesiąty sprzedany
w Polsce monitor miał ekran 27-, 30-calowy lub większy.
O ile pod względem wielkości przekątnej wyświetlacza LCD
ewolucja następuje powoli, o tyle inny kluczowy element, czyli
rozdzielczość, zmienia się skokowo. Ciągle jeszcze standardem jest Full HD, ale
pomału rośnie popularność ekranów oferujących obraz w formacie 4K.
– W ubiegłym roku nasza
oferta poszerzyła się o kilka modeli 4K i można to uznać za przełom,
który z czasem stanie się normą na rynku monitorów specjalistycznych, zastępując
standard Full HD – mówi Karolina Trojanowska, dyrektor marketingu
w Alstorze, który dystrybuuje w Polsce monitory marki EIZO.
Konstrukcje o rozdzielczości 4K są jeszcze dość drogie,
ale nie ulega najmniejszej wątpliwości, że z czasem zyskają status
standardu. Nie wiadomo tylko, czy stanie się to już w bieżącym roku.
Kolejną nowością, która powoli toruje sobie drogę do serc
użytkowników, są monitory w formacie ultrapanoramicznym, czyli
o proporcjach 21:9. Pierwsze takie konstrukcje pojawiły się na rynku już
kilka lat temu, ale ciągle stanowią margines rynku, choć oferują je już niemal wszyscy dostawcy.
Dlaczego?
– To naprawdę ciekawe rozwiązania.
Obserwujemy co prawda tendencję wzrostową, jednak z całą pewnością to
produkt wciąż niedoceniany przez użytkowników – mówi Paweł
Ruman. – W dużym stopniu wpływ na ten stan rzeczy mają
wysokie ceny.
Zdaniem przedstawiciela MMD potencjalni nabywcy nie mają
świadomości wygody, jaką oferuje praca na takim ekranie. Format 21:9 umożliwia
wyświetlenie nawet trzech arkuszy A4 jednocześnie. Pełne korzystanie
z zalet takiego rozwiązania narzuca niestety stosowanie dość dużych
przekątnych ekranu. Według Pawła Rumana najbardziej optymalny do pracy jest
monitor o przekątnej 34 cale.
Paweł Ruman
Coraz więcej monitorów jest wyposażonych w rozwiązania,
które są dostępne na rynku od niedawna. W przypadku wyświetlaczy dla
graczy stosuje się technologie redukujące zacinanie się i przerywanie
obrazu. Użytkownicy domowi chętnie wybierają monitory z funkcją
flicker-free, która eliminuje efekt migania. Lista innowacyjnych cech jest
coraz dłuższa i stale rośnie. W 2016 r. będą dostępne monitory wykorzystujące
technologię kropki kwantowej, która zapewnia odwzorowanie kolorów
z pokryciem 99 proc. przestrzeni barw Adobe RGB oraz 100 proc.
NTSC. Klienci każdego typu wybierają coraz częściej monitory o dużych
przekątnych, rośnie oferta wyświetlaczy o zakrzywionym kształcie czy
o rozdzielczości 4 K, zaś w bieżącym roku pojawiły się już
pierwsze konstrukcje 5 K. Z pewnością będzie też rosło
zainteresowanie ekranami ultrapanoramicznymi w formacie 21:9.
Monitory o proporcjach 21:9 najpierw wprowadził do
swojej oferty Dell, później pojawiły się u Philipsa, a następnie
znalazły się w portfolio LG (to właśnie koreański dostawca rozpoczął
intensywną promocję rozwiązania) i kolejnych producentów, jak chociażby
w Acerze.
–
W naszej ofercie monitory o formacie ekranu 21:9 stanowią niecałe
4 proc. całego portfolio wyświetlaczy. Ich udział w sprzedaży
znajduje się na podobnym, niewielkim poziomie – mówi Patryk Roszko, Peripherial Business Unit Manager
w polskim oddziale Acera. – Najtańszy
model, jaki oferujemy, to CB290Cbmidpr, wyceniany na 1769 zł brutto.
Najdroższym monitorem jest Predator Z35, który kosztuje 4999 zł brutto.
W tym segmencie największym popytem cieszą się rozwiązania dla graczy,
czyli modele XZ350CU i właśnie Predator Z35.
Według przedstawicieli Philipsa takie monitory najlepiej
sprawdzają się w biurze, zaś specjaliści LG uważają, że są świetne dla
graczy. Z kolei sprzedawcy z Della zwracają uwagę, że format
ultrapanoramiczny może być stosowany również do oglądania filmów.
Choć takie ekrany nie są
jeszcze zbyt popularne, zwiększa się liczba producentów, którzy wprowadzają je
do swojej oferty. Czy znajdą uznanie klientów? Tego oczywiście przewidzieć nie
sposób, ale wiele lat temu, gdy na rynku pojawiły się monitory w formacie
16:9, również nie wróżono im świetlanej przyszłości. Jak wiadomo, dziś
proporcje 4:3, stanowiące schedę po CRT, to jedynie margines rynku.
W przypadku monitorów desktopowych sprzedaż
w 2015 r. była porównywalna ze zbytem w roku poprzednim. Natomiast
jeżeli spojrzymy na poszczególne linie produktowe, zdecydowanie większym
popytem cieszą się monitory profesjonalne, do zastosowań specjalistycznych, np.
w placówkach medycznych czy pracowniach graficznych.
– Wszystko wskazuje na to, że
w bieżącym roku będziemy mieli do czynienia z podobną sytuacją,
a zatem utrzyma się trend wzrostowy dla tych monitorów
– prognozuje Robert Buława, Country Manager Poland, Central South East
Europe w NEC Display Solutions.
Rośnie również popyt na rozwiązania typu Digital Signage.
–
W 2015 r. zauważyliśmy zdecydowany wzrost zainteresowania monitorami
wielkoformatowymi, czyli modelami Ultra Narrow o przekątnych długości 46
oraz 55 cali, stosowanymi do budowy ścian wideo – mówi Robert Buława.
Zdaniem przedstawiciela NEC ściany wielomonitorowe stają się
obowiązkowym elementem strategii marketingowej wielu firm. Świetnie widoczny
jest tutaj efekt domina: sieci handlowe, sklepy, instytucje, firmy czy
korporacje, widząc tego typu rozwiązania u konkurencji, szybko je kopiują.
– Coraz częściej klienci kupują
również wielkoformatowe monitory dotykowe. I właśnie w tym segmencie
wszyscy oczekują największych wzrostów sprzedaży w 2016 r.
– dodaje rozmówca CRN Polska.
Popyt na monitory dla graczy rośnie w ostatnim czasie
wręcz lawinowo. Gemingowe wyświetlacze LCD różnią się od typowych pod względem
wyglądu, ale oczywiście diabeł tkwi w szczegółach technicznych.
– Pilot do ustawień, łatwe menu,
systemy wspomagające wydajność, niski lead time, bardzo szybkie matryce, dodatkowe złącza
czy podnoszony panel/pivot, to tylko niektóre z funkcji ułatwiających życie
graczom – wylicza Jurand Gołębiowski, LCD Displays Manager BenQ
CEE.
Jednym
z najważniejszych elementów w monitorze przewidzianym do gier są
rozwiązania poprawiające obraz. Klienci mają do wyboru albo układ G-Sync
stworzony przez Nvidię w 2013 r., albo powstały rok później
w AMD FreeSync. W obu przypadkach cel jest podobny: chodzi o to,
aby jak najwięcej wycisnąć z istniejących procesorów i kart
graficznych. Rozwiązania te poprawiają
płynność wyświetlanego obrazu, likwidując opóźnienia i minimalizując
negatywne efekty stutteringu i tearingu.
FreeSyng współpracuje
z każdą kartą graficzną, zaś G-Sync może
być stosowany tylko z urządzeniami
Nvidii. W obu przypadkach karty muszą posiadać złącze DisplayPort.
Koniecznie trzeba zaznaczyć, że już niebawem na rynku
pojawią się monitory dla graczy z układem FreeSync, które będą mogły
komunikować się z kartą graficzną za pośrednictwem złącza typu HDMI.
To z pewnością przyczyni się do zwiększenia popularności rozwiązania
proponowanego przez AMD.
Karolina Trojanowska
Czym różni się monitor dla profesjonalistów od modeli do
zastosowań biurowych? Na pierwszy rzut oka, przede wszystkim ceną. Jednak
w tym wypadku różnica w cenie jest uzasadniona. Za jakość obrazu
odpowiedzialna jest nie tylko sama matryca, ale również układy elektroniczne,
które sterują ciekłymi kryształami. Żeby zobaczyć, jaka przepaść dzieli
wyświetlacze profesjonalne od biurowych, wystarczy położyć obok siebie płytę
główną monitora biurowego i profesjonalnego. Różnice konstrukcyjne
wynikają wprost z różnic w potrzebach klientów, nie każdy przecież
potrzebuje wysokiej jakości wyświetlacza.
Monitory profesjonalne to nie tylko modele przeznaczone do
stosowania w grafice, czy poligrafii, ale również specjalistyczne
urządzenia kierowane na rynek medyczny, przeznaczone do wykorzystania
w monitoringu, przemyśle, a także w lotnictwie i żegludze.
Polscy użytkownicy coraz
częściej decydują się na zakup monitora o wysokiej jakości, czyli
urządzenia wyposażonego w matrycę typu IPS lub VA (krótka charakterystyka
typów matryc w ramce na str. 54). Jest to trend o tyle ciekawy, że
nasz rynek należy do bardzo wrażliwych na cenę. Niestety, nie sposób ocenić, na
ile wybór wysokiej jakości wyświetlacza jest dokonywany świadomie, a na
ile z tej prostej przyczyny, że dostawcy zmniejszają ofertę sprzętu
z matrycami typu TN. Tak czy inaczej, wzrost popytu na produkty wyższej
jakości jest faktem. Jeśli klienci będą gotowi przeznaczyć większe niż
w przeszłości środki na monitor, będą mieli w czym wybierać.
– W 2016
roku będzie rosła oferta monitorów wyposażonych w niemigające układy podświetlenia
obrazu (tzw. flicker free). Nowe linie urządzeń będzie coraz częściej cechować
smukły, bezramkowy design. Więcej monitorów będzie miało w możliwość
bezprzewodowego ładowania urządzeń mobilnych za pomocą wbudowanej w stopę ładowarki
indukcyjnej – wylicza Sebastian
Antkiewicz, CS Lead Poland w Dellu.
– W 2016 r. można
spodziewać się wzrostu popytu na monitory z zakrzywionym ekranem,
a przy tym ich większego zakrzywienia – mówi Robert
Buława. – Dodatkowo nowoczesne konstrukcje monitorów
desktopowych będą pozbawione fizycznej ramki, dokładnie tak, jak ma to miejsce
w monitorze NEC EX241UN. Model charakteryzuje się nieaktywną powierzchnią
ekranu o rozmiarze jedynie około 3,8 mm.
Spodziewany jest także spadek cen matryc
o rozdzielczości 4K, co z pewnością przyczyni się do popularyzacji
monitorów UHD. Na rynku pojawiają się też pierwsze wyświetlacze
ciekłokrystaliczne 5K.
Niewątpliwie w kolejce, by zyskać status standardu,
czekają już rozwiązania bazujące na ekranach kolejnej generacji – typu
OLED. Raczej powoli pojawiają się w ofercie producentów
i z pewnością w bieżącym roku nie znajdą zbyt wielu chętnych.
Jednak, patrząc na wiele nowości konstrukcyjnych w modelach LCD, nie ma
się do czego śpieszyć.
Artykuł Rośnie wartość pochodzi z serwisu CRN.
]]>Artykuł Jakość ma znaczenie pochodzi z serwisu CRN.
]]>W 2015 r. lista dostawców monitorów wyglądała
praktycznie tak samo jak rok wcześniej, jednak znacząco zmieniły się udziały
rynkowe. Niestety nie dysponujemy danymi od LG i Samsunga. Jedynie na podstawie
nieoficjalnych rozmów możemy oszacować, że ich pozycja uległa osłabieniu.
W 2014 r. LG znalazło klientów na
ok. 160 tys. wyświetlaczy, zaś
Samsung na nieco ponad 100 tys. To oznacza, że obie koreańskie firmy sprzedały
ponad
300 tys. LCD, co stanowiło jedną trzecią krajowego rynku. Z kolei
w ubiegłym roku, jak wynika z naszych szacunków, liczba ta
najprawdopodobniej zmalała do 250–260 tys., czyli – przy założeniu ogólnej
liczby sprzedanych monitorów na poziomie 900 tys. – do obu dostawców
należało nieco więcej niż jedna czwarta polskiego rynku.
Wzrostami, dużymi
i mniejszymi, mogło się za to pochwalić kilka innych dobrze znanych
w Polsce marek, takich jak: Acer, Asus, BenQ, iiyama czy NEC (kolejność
alfabetyczna). Być może wzrosły też udziały Philipsa albo AOC, lecz nie możemy
być tego pewni, bo dysponujemy jedynie sumaryczną dla obu tych marek liczbą ok.
160 tys. monitorów.
Niewątpliwie do największych wygranych należy Asus, który
2015 r. zamknął wynikiem 65 tys. sprzedanych paneli. Tak dobry rezultat
(dwukrotnie lepszy niż przed rokiem) producent zawdzięcza m.in. dużej
aktywności w segmencie modeli przeznaczonych do gamingu.
– Asus jest
obecnie liderem na rynku monitorów gamingowych. Należy do nas aż 40 proc.
globalnego rynku. W ubiegłym roku odnotowaliśmy spory wzrost i teraz
bardzo intensywnie rozwijamy ofertę
– mówi Karolina Jonko-Małecka, Country Product Manager w polskim
oddziale producenta.
Matryce LCD w pigułce
• TN (Twisted
Nematic)
Charakterystyka: poziome ustawienie ciekłych kryształów
względem powierzchni ekranu
Zalety:
– niska cena
– krótki czas reakcji matrycy (od 2 ms w trybie
G2G)
Wady:
– małe odwzorowanie kolorów
– małe kąty widzenia
Zastosowanie: do prac biurowych i zastosowań
domowych, dzięki szybkiej reakcji matrycy mogą być stosowane również do gier,
ale bez satysfakcjonującego odzwierciedlenia barw
• IPS (In Plane
Switching)
Charakterystyka: pionowe ustawienie ciekłych kryształów
względem powierzchni ekranu
Zalety:
– bardzo dobre odwzorowanie barw
– krótki czas reakcji matrycy
– szerokie kąty widzenia
Wady: relatywnie wysoka cena w stosunku do rozwiązań
typu VA
Zastosowanie: dla profesjonalistów wymagających dobrego
odzwierciedlenia barw, graczy i wymagających użytkowników domowych
• VA (Vertical
Alignment), PVA (Patterned Vertical Alignment), MVA (Multi Vertical Alignment)
Matryce z rodziny VA stanowią kompromisowe rozwiązanie
pomiędzy TN a PVA. Monitory z matrycami z rodziny VA mają lepsze
kąty widzenia niż PVA, lepsze odwzorowanie barw niż TN, zaś gorsze niż
w przypadku IPS. Koszt monitora z matrycą typu VA również jest wyższy
niż dla TN zaś niższy niż PVA.
Charakterystyka: pionowe lub ukośne ustawienie ciekłych
kryształów względem powierzchni ekranu
Zastosowanie: dla graczy oraz do zastosowań domowych
Z zeszłorocznych wyników zadowolony może być też szef
polskiego oddziału iiyama. Japońskiej marce udało się wprowadzić na nasz rynek
prawie 69 tys. wyświetlaczy (rok wcześniej – 50,8 tys.). Mamy więc
w tym przypadku do czynienia z ponad 30-proc. wzrostem.
– To
najlepsze wyniki od dekady, zarówno na polskim, jak i europejskim rynku.
Pobiliśmy wszystkie własne rekordy sprzedaży w Polsce, Niemczech, Francji,
Anglii i Holandii
– podkreśla Mariusz Kuczyński, szef polskiego przedstawicielstwa iiyama.
Kolejnym dostawcą, który
zwiększył udziały na polskim rynku monitorów, był Acer. Z informacji
uzyskanych od tego producenta wynika, że w odniesieniu do 2014 r.
odnotował on wzrost sprzedaży o 18 proc. Oznacza to skok z 19
tys. wyświetlaczy dwa lata temu do 22,4 tys. w roku 2015.
–
W porównaniu ze stałą albo spadającą sprzedażą na całym rynku uzyskany
przez nas wzrost należy uznać za bardzo dobry rezultat – komentuje Patryk Roszko, Peripherial Business
Unit Manager w polskim oddziale Acera.
Na liście liczących się
dostawców znajduje się również Dell, który powołując się na badania DisplayCast
za trzeci kwartał 2015 r. (unikając przy tym dzielenia się konkretną
liczbą), twierdzi, że ma wyjątkowo mocną pozycję. Wzrostami, wprawdzie
niewielkimi, chwalą się także BenQ i NEC. Pierwszy z producentów sprzedał
w ubiegłym roku 75 tys. wyświetlaczy ciekłokrystalicznych, a więc
trzy tysiące więcej niż rok wcześniej. Z kolei NEC w 2015 r.
znalazł nabywców na 21,6 tys. monitorów, w tym 16,6 tys. wyświetlaczy
desktopowych i 5 tys. modeli wielkoformatowych.
Niewątpliwie największą zmianą, jaką mogliśmy obserwować na
rynku monitorów w zeszłym roku, był bardzo duży wzrost zainteresowania
wyświetlaczami o sporych przekątnych oraz urządzeniami przeznaczonymi do
gamingu.
Dobrym przykładem jest
BenQ. W przypadku urządzeń tej marki w 2015 r. aż 45 proc.
sprzedaży stanowiły urządzenia o przekątnych długości od 21,5 do 22 cali.
Na drugim miejscu, z udziałem 35 proc., znalazły się modele
24-calowe, zaś 27-calowe i większe – na trzecim (7,2 proc.).
Nieco inaczej, jeśli chodzi o przekątne, klasyfikuje krajowy rynek
dostawca monitorów Philipsa i AOC w Polsce. W tym przypadku
wyświetlacze o przekątnej długości do 20 cali odpowiadały za nieco ponad
20 proc. sprzedaży, a zdecydowaną większość (75 proc.)
sprzedanych modeli stanowiły wyświetlacze o przekątnych długości pomiędzy
21,5 a 24 cale. Pozostałe 5 proc. należało do dużych przekątnych,
powyżej 24 cali. O niemal takiej samej strukturze sprzedaży możemy mówić
w przypadku Asusa: modele 19–20 cali to 25 proc. zbytu, 21–24 cale
– aż 63 proc., i powyżej 24 cali – 12 proc.
Wprawdzie wyświetlacze
ciekłokrystaliczne w rozmiarach 22–24 cali cieszą się popytem już od kilku
lat, ale nigdy wcześniej nie zdominowały krajowego rynku. Nie notowano również
większego niż kilka procent zainteresowania urządzeniami o bardzo dużych
przekątnych (powyżej 27 cali). Koniecznie trzeba zaznaczyć, że ekrany
o największych przekątnych najczęściej oferują wysoką jakość obrazu,
a bardzo dobre wyniki iiyamy czy Asusa, czyli dostawców sprzętu świetnej
jakości, potwierdzają, że obserwujemy zdecydowany wzrost popytu na sprzęt
z wyższej półki.
– Widzimy dużą zmianę w preferencjach zakupowych
klientów końcowych. Już nie szukają produktów w najniższej cenie, lecz
wybierają wyszukane konstrukcje z dodatkowymi funkcjami – mówi Patryk Roszko.
Z wypowiedzi
przedstawicieli producentów wynika, że na krajowym rynku mamy do czynienia
z postępującą polaryzacją. Monitory, na których trudno zarobić,
o niewielkich przekątnych i przeciętnych parametrach cieszą się
największym zainteresowaniem klientów w sieciach detalicznych. Natomiast
większe konstrukcje wysokiej jakości, przeznaczone dla zaawansowanych,
wymagających użytkowników coraz częściej znajdują swoje miejsce na półkach
resellerów.
Artykuł Jakość ma znaczenie pochodzi z serwisu CRN.
]]>Artykuł Terabajty pożądane pochodzi z serwisu CRN.
]]>Niewątpliwie najważniejszym zjawiskiem, jakie obecnie
obserwujemy na rynku komponentów – i które najprawdopodobniej będzie
się nasilać – jest wzrost zainteresowania dyskami twardymi o dużych
pojemnościach. Co prawda, nie należy spodziewać się w tym wypadku
znaczących zmian w ujęciu ilościowym, ale z pewnością będzie rosła
średnia pojemność napędów. W odległej przeszłości zapotrzebowanie na
pojemność zwiększało się liniowo, jednak w ciągu kilku ostatnich lat
wzrost wyraźnie wyhamował. Typowym elementem konfiguracji pozostaje od długiego
czasu dysk 500-gigabajtowy, ewentualnie 1-terabajtowy. Na pytanie
o przyczyny tego stanu rzeczy postaramy się odpowiedzieć w artykule,
opisującym sytuację na rynku nośników. Obecnie wszystko wskazuje na to, że
w ostatnich miesiącach bieżącego roku oraz w całym 2016 dyski
o pojemności 1 TB ostatecznie zdominują rynek, a jednocześnie
konstrukcje 2-terabajtowe zaczną wreszcie zyskiwać popularność. Tego rodzaju
zmiany należy spodziewać się nie tylko ze względu na spadek cen. Sprzyja jej
to, że coraz więcej użytkowników archiwizuje pliki w formacie HD
i 4K. Pewne znaczenie ma tu też coraz bardziej powszechne korzystanie
z rozwiązań do monitoringu, o czym również można przeczytać
w naszym raporcie.
Z uwagi na rosnący popyt na kamery
o rozdzielczości HD i 4K (dla których pojawiają się coraz to nowe
zastosowania: od rejestracji szaleńczej jazdy motocyklem po drony, które
szturmem zdobywają rynek) należy oczekiwać wzrostu popytu na szybkie karty
o dużych pojemnościach. Mowa tu o nośnikach o pojemności 128,
256, a nawet 512 GB z transferami zbliżającymi się do 100 MB/s,
które kuszą coraz niższymi cenami.
Spadają też ceny pamięci operacyjnych, dzięki czemu standard
pojemności RAM w desktopach, który przez kilka lat zatrzymał się na
poziomie 4 GB, teraz rośnie wręcz skokowo. Warto dodać, że moduły
najnowszej generacji, czyli DDR4, które pojawiły się w ofertach
producentów rok temu, praktycznie nie są stosowane. Ich udział jest obecnie
szacowany na 1–2 proc., a wykorzystanie ogranicza się do komputerów
gamingowych, które wracają do łask entuzjastów komputerowej rozrywki,
odbierając rynek konsolom.
Inne tegoroczne nowe
trendy, które z pewnością będą miały wpływ na konfigurację pecetów,
dotyczą głównie dysków SSD oraz procesorów. Już kilka miesięcy temu na rynku
zaczęły pojawiać się półprzewodnikowe napędy wykorzystujące kości typu TLC.
Konstrukcje takie zdaniem producentów bardzo szybko zdobędą popularność za
sprawą atrakcyjnych cen i przyczynią się do wzrostu standardu pojemności
SSD ze 120 do 240 GB. Jeśli chodzi o procesory, pojawienie się
jednostek szóstej już generacji niewątpliwie umocni pozycję Intela, dzięki
czemu „niebiescy” najprawdopodobniej zyskają w niedalekiej przyszłości
kilka kolejnych procentów udziału w rynku. Z kolei AMD zapewnia, że
nie zasypia gruszek w popiele, i również przygotowuje premierowe
jednostki. Przy czym trudno teraz powiedzieć, kiedy się ukażą i czy staną
się realną alternatywą dla układów Intela.
Artykuł Terabajty pożądane pochodzi z serwisu CRN.
]]>Artykuł Świat pomalowany na niebiesko pochodzi z serwisu CRN.
]]>– …to jest nieco mylące, bo musimy
pamiętać, że agencje nie zaliczają do kategorii komputerów ani najtańszych
rozwiązań, budowanych z wykorzystaniem płyt z wlutowanymi procesorami
Atom, ani komputerów NUC – mówi Artur Długosz, Reseller Channel
Manager w polskim przedstawicielstwie Intela. – Całkowita
sprzedaż w kanale dystrybucyjnym, obejmująca zarówno procesory do montażu
w maszynach, jak i rozwiązania z procesorami Atom, komputery
NUC, a także produkty OEM, wzrosła w bieżącym roku o kilka
procent.
Wiele wskazuje na to, że
klienci zaczynają doceniać uroki miniaturyzacji (być może to słowo, prawie już
zapomniane, powinno wrócić do łask?). Powolny proces akceptacji małych
konstrukcji trwa już od kilku dobrych lat i przypomina ospale ruszającą
z miejsca lokomotywę. Widoki są perspektywiczne, jednak – jak już
niejednokrotnie mogliśmy się przekonać – w naszej branży nie ma nic
pewnego (poza coraz bardziej odwróconym VAT-em…). Resellerzy z długim stażem
z pewnością pamiętają rozwiązania typu set-top box, które kilkanaście lat
temu były mocnym rynkowym challengerem – jak obecnie SFF
– a jednak się nie przyjęły. Wyraźnie widać, że gwarancji sukcesu nie
daje ani jakość, ani funkcjonalność żadnego rozwiązania. Czy mogłaby dać je
więc reklama, w którą branża pecetowa inwestuje nieczęsto
i niechętnie?
– Gdyby przeprowadzić zakrojoną na
szeroką skalę kampanię medialną pod hasłem „mały pecet jest jak duży”
i wyjaśnić potencjalnym klientom, że mały oznacza w tym wypadku
„pobierający trzy razy mniej prądu”, konstrukcje SFF mogłyby bardzo szybko stać
się pecetowym standardem – twierdzi między innymi Tadeusz
Kurek, prezes NTT System.
Nie dysponujemy
precyzyjnymi informacjami dotyczącymi sprzedaży procesorów w pierwszej
połowie br. (poza wspomnianymi danymi GfK Polonia). Dokładne dane to bardzo deficytowy towar.
Nieuczciwi przedsiębiorcy, parający się działalnością, na którą antidotum ma
być podobno odwrócony VAT, w 2015 r. bardzo interesują się
procesorami i dyskami SSD… Jaka jest skala tego zjawiska? Proceder bada
ZIPSEE „Cyfrowa Polska”. Niestety, gdy pod koniec października oddawaliśmy
raport do druku, instytucja nie dysponowała jeszcze konkretnymi liczbami.
Pewne jest jedno: w bieżącym roku zdecydowanie maleje
sprzedaż komputerów lokalnej produkcji, a to oczywiście oznacza
zmniejszone zapotrzebowanie na komponenty. Najmniej powodów do zmartwień ma
Intel, który od kilku lat systematycznie zwiększa udziały w rynku. Jeszcze
trzy lata temu szacowaliśmy, że procesory „niebieskich” były montowane
w około 65–70 proc. desktopów. Dwa lata temu udział Intela
najprawdopodobniej przekroczył 80 proc., a w zeszłym roku
wprawdzie spadł, ale w niewielkim stopniu (w pierwszej połowie
2014 r. stosunek udziałów Intela i AMD wynosił 79 do 21).
W minionym półroczu „niebieskim” udało się uzyskać kilka dodatkowych
„oczek”. Ile dokładnie, nie wiadomo, ale z naszych szacunków wynika, że
rynek jest obecnie podzielony: w wersji bardziej optymistycznej dla AMD
w stosunku 80–20 proc., zaś w mniej optymistycznej byłoby to
odpowiednio 86 do 14 proc.
–
W pierwszej połowie roku, gdy mowa o serii Core i7, najlepiej
sprzedawały się modele 4790 K, 4790, 5820 K, 4770 – wylicza Artur Długosz. – Jeśli chodzi o Core i5, absolutnym hitem jest
model 4460, na drugim miejscu plasuje się 4690 K, zaś na kolejnych
pozycjach: 4590 oraz 4690. Wysokie miejsce zajmuje również 4440. Spośród
tańszych konstrukcji dużym powodzeniem cieszyły się Core i3 4160 i 4170,
zaś spośród Celeronów modele G1840 i G1610.
AMD nie wskazuje niestety, które procesory były
najpopularniejsze w pierwszej połowie roku. Przedstawiciele producenta
zwracają jedynie uwagę na aktualną sytuację rynkową w związku
z niedawną premierą nowego systemu operacyjnego Microsoftu, co – ich
zdaniem – powinno przyczynić się do zwiększenia zainteresowania
jednostkami „zielonych”.
–
W drugiej połowie roku znowu wzrosło znaczenie procesorów APU. To efekt
debiutu Windows 10, który jeszcze lepiej wykorzystuje heterogeniczną
architekturę APU, a także nowych miniaturowych komputerów, coraz chętniej
wprowadzanych na rynek przez naszych partnerów – powiedział Krzysztof Łuka, Senior Sales Account
Representative, AMD CEE. –
W popularyzacji jednostek APU pomaga też coraz nowocześniejsze
oprogramowanie korzystające z akceleracji graficznej OpenCL.
Nieoficjalnie mówi się, że w przyszłym roku AMD
wprowadzi na rynek układy z zupełnie nową architekturą x86 – Zen. Cechą szczególną tej technologii ma
być skalowalność i uniwersalność, a przede wszystkim znaczący postęp
w zakresie wydajności i efektywności energetycznej.
– Warto też pamiętać o ogłoszonej
przez nas w zeszłym roku inicjatywie 25×20, która zakłada 25-krotne
zwiększenie efektywności energetycznej do roku 2020. Głównym środkiem do
osiągnięcia tego celu będą udoskonalenia w dziedzinie heterogenicznej
architektury procesorów (HSA) – mówi Bruno Murzyn, PR Manager AMD
EMEA.
O ile AMD wprowadza nowości raz na kilka lat,
o tyle w przypadku Intela można odnieść wrażenie, że zasypuje nimi
rynek w trybie ciągłym. Nie tak dawno temu odbyła się premiera
rewolucyjnej konstrukcji piątej generacji – procesorów niewymagających
aktywnego chłodzenia – a do sprzedaży trafiły już układy szóstej
generacji, które zostały bardzo szybko wykorzystane przez producentów sprzętu.
– Premiery
nowych urządzeń 2 w 1 wyposażonych w procesory 6.
generacji, choćby ostatnio pokazanych modeli Microsoftu, Della, Lenovo czy
Acera, pokazują, że możliwe stało się stworzenie jeszcze smuklejszych,
wydajniejszych i wygodniejszych w użytkowaniu hybryd – mówi Artur Długosz. – W porównaniu z układami sprzed 2–3 lat
wykonują operacje obliczeniowe nawet o połowę szybciej. Nie licząc
kilkukrotnego przyspieszenia pracy wbudowanych
układów graficznych.
Nowe procesory, oparte na mikroarchitekturze Skylake
i wykonane w 14-nanometrowym procesie technologicznym, lepiej niż ich
poprzednicy radzą sobie m.in. z odtwarzaniem i edycją wideo
w rozdzielczości 4 K.
Producenci płyt głównych mają w ostatnim czasie bardzo
dużo pracy. Intel wprowadził na rynek kolejne generacje swoich układów, zaś
dostawcy pamięci już od roku sprzedają nowe moduły pamięci operacyjnej. Ponadto
w ich portfolio powszechnie dostępne stały się pendrive’y korzystające
z najnowszych złączy do komunikacji szeregowej.
– Bez wątpienia jedną z najważniejszych nowości
w segmencie komputerów PC w 2015 r. jest nowa rodzina płyt
głównych z serii 100 z chipsetami Intel Z170, H170, B150, jak również
H110 – mówi Michał Siwek, dyrektor
handlowy w polskim oddziale Gigabyte Technology.
Wspomniane płyty wyposażone zostały w nową podstawkę
procesora Intel LGA 1151. Umożliwiają one obsługę nowej generacji pamięci DDR4
lub DDR3. Nowością jest również zgodność z nowym standardem USB 3.1.
Przedstawiciel Gigabyte’a zwraca uwagę na spadki sprzedaży płyt, zwłaszcza
w najpopularniejszym wcześniej segmencie produktów z grupy droższej,
czyli w przedziale cen od 46 do 100 dol. (patrz: wykres).
Nie wiemy, czy podobne
zjawisko zaobserwowali inni dostawcy płyt gównych, ale z pewnością można
je uznać za globalne, bo do Gigabyte’a należy ponad jedna trzecia światowego
rynku płyt głównych. Pozostali obecni w Polsce producenci to niezmiennie:
Asus, Asrock i MSI. Podajemy ich nazwy w kolejności alfabetycznej,
gdyż nie dysponujemy dokładnymi danymi o ich udziałach w sprzedaży.
Wiemy jedynie, że Asrock, który w ostatnich latach ze zmiennym szczęściem
radził sobie na naszym rynku, w minionym półroczu zwiększył swoje udziały.
Zapewne podobnie było w przypadku MSI.
Za symptomatyczne można
uznać, że producenci płyt głównych zauważają wzrost zapotrzebowania na małe
komputery i wprowadzają takie modele urządzeń do swojej oferty (oczywiście
bez procesorów i pamięci). Jednym z przykładów jest Gigabyte Brix,
oferowany w tańszej wersji z procesorami Intel Celeron, jak również
z układami Intel i7 oraz i5 dla bardziej wymagających użytkowników.
Nawiasem mówiąc, to, że najlepsze komputery w małych obudowach dysponują
najbardziej wydajnymi jednostkami obliczeniowymi, świadczy o tym, że
jedynym typem desktopa, z którym nie będą mogły konkurować, staną się
z czasem tylko maszyny gamingowe.
Artykuł Świat pomalowany na niebiesko pochodzi z serwisu CRN.
]]>Artykuł Rynek nasycony pochodzi z serwisu CRN.
]]>Tablety najprawdopodobniej
spowodowały też pewne zamieszanie np. w segmencie pamięci i nośników.
Wystarczy skojarzyć fakty. W 2012 r., gdy iPady i reszta pojawiły
się na rynku, pamięci RAM zaczęły raptownie drożeć i trend ten utrzymał
się przez cały 2013 r., czyli podczas tabletowego boomu. W tym samym
okresie przestały spadać ceny dysków SSD, które wcześniej systematycznie
taniały. W 2014 r. popyt na tablety przestał rosnąć, a ceny
pamięci i dysków SSD zaczęły spadać. W tym roku segment tabletów się
kurczy, pamięci tanieją, a lada chwila dysk SSD o pojemności
240 GB – za który rok temu trzeba było zapłacić prawie 500 zł
– będzie kosztował niespełna 300 zł. Przypadek?
Historia tabletu jest krótka i burzliwa. Stanowi też
osobliwy wyjątek w kontekście zazwyczaj konserwatywnych upodobań klientów.
Przecież od kilku lat typowy desktop może zostać z powodzeniem zastąpiony
równie wydajnym AiO czy pecetem zamkniętym w malutkiej obudowie SFF,
a notebooki mają konkurencję w postaci netbooków i ultrabooków.
Jednak użytkownicy uparcie wybierają laptopy – najczęściej ciężkie,
wyposażone w duży ekran maszyny, które niespecjalnie zasługują na nazwę
komputera przenośnego. Dla odmiany tablet – urządzenie całkiem
nowatorskie, wręcz awangardowe – nie tylko nie został zignorowany przez
klientów, ale wzrosty sprzedaży liczono w dziesiątkach, a nawet
setkach procent.
Jednak od połowy zeszłego roku sytuacja zaczęła się zmieniać
– dynamika wzrostu gwałtownie wyhamowała. W tym roku tendencja
spadkowa utrzymuje się, zwłaszcza w przypadku sprzętów najtańszych,
a jednocześnie nabywcy zaczęli zdecydowanie łaskawszym okiem spoglądać na
urządzenia markowe. Najwięksi dostawcy, w przeciwieństwie do tych
mniejszych, mogli sobie bowiem pozwolić na redukcje cen, a tym samym
utrzymanie odpowiedniego poziomu sprzedaży. Dlatego, jeśli klient kupuje
w tym roku tablet, jest to najczęściej sprzęt markowy w cenie
niewiele przekraczającej tę, jaka jeszcze niedawno obowiązywała
w segmencie B-brandów. W Polsce dominującym producentem w tym
roku stało się Lenovo.
– Nasze udziały w rynku
tabletów z systemem Android sukcesywnie rosną – mówi Daniel
Malak, Consumer Business Manager w polskim oddziale Lenovo. –
W pierwszym kwartale zdobyliśmy 30 proc. udziału w rynku, zaś
w kolejnym już prawie 37 proc., z łączną sprzedażą ponad 260
tys. urządzeń (dane IDC). Jesteśmy obecnie jedynym producentem, który może
pochwalić się znacznymi wzrostami sprzedaży tabletów rok do roku.
Zgadza się – pozostali dostawcy nie mają tego komfortu.
Jednak niektórzy mimo wszystko wydają się zadowoleni z wyników.
– W pierwszej połowie
2014 r. sprzedaliśmy 163,6 tys. tabletów, zaś w tym samym okresie
bieżącego roku prawie 131 tys. – mówi Krzysztof Wójciak, dyrektor
zarządzający w Modecomie. – Uważam, że w czasie, gdy popyt na
tablety gwałtownie się kurczy, to naprawdę znakomity wynik.
Inni oceniają sytuację mniej optymistycznie.
–
W pierwszej połowie 2015 r. sprzedaliśmy 100 tys. tabletów, co
oznaczało wyraźny spadek w porównaniu ze sprzedażą w analogicznym
okresie 2014 r. – przyznaje
Łukasz Pietruszka, Product Manager w Actionie.
Wydawałoby się, że przy
każdym chyba typie sprzętu komputerowego opis cen produktów można zacząć od
nieśmiertelnego stwierdzenia, iż polski rynek jest bardzo wrażliwy na cenę
i największą popularnością cieszą się urządzenia najtańsze. Jednak tablety
i w tym przypadku stanowią wyjątek.
– Udział tabletów w cenie do 800 zł jest szacowany
na około 60 proc rynku. Nic też dziwnego, że sprzedajemy najwięcej urządzeń
właśnie w tym przedziale cenowym. W tej kategorii do Lenovo należy
połowa krajowego rynku – mówi
Daniel Malak. –
W drugiej co do ważności grupie cenowej, powyżej 1,1 tys. zł, co
trzeci klient decyduje się na zakup tabletu Lenovo Yoga.
Przedstawiciel Lenovo
zwraca uwagę, że najmniejszą popularnością cieszą się urządzenia ze środkowej
półki, czyli w przedziale cenowym pomiędzy 800 a 1100 zł.
Podobną jak w przypadku Lenovo strukturę sprzedaży da się zaobserwować
również w Actionie. Aż 77 proc. sprzedanych przez dystrybutora
urządzeń kosztowało od 300 do 800 zł.
Uwzględniający cenę
podział na trzy kategorie, z których najmniejszą część stanowią tablety ze
środkowej półki, występuje też w Modecomie, choć w przeciwieństwie do
A-brandowego Lenovo tu najpopularniejsze są konstrukcje tanie.
– W tym roku największe zyski ze sprzedaży tabletów
odnotowaliśmy w segmencie cenowym od 250 do 600 zł brutto – mówi Krzysztof Wójciak. – Urządzenia oferowane przez nas w takiej cenie
stanowiły 70 proc. całkowitej sprzedaży tabletów z logo Modecom.
Pozostałe 30 proc. to droższe produkty, do 1000 zł brutto, które
dostarczaliśmy klientom w ramach projektów specjalnych.
Menedżer Modecomu zwraca
uwagę, że polski producent celuje w ten segment rynku, w którym
produkty mają potencjalnie najlepszą relację ceny do jakości. Przeciętna
konfiguracja sprzętowa tabletu tej marki w cenie do 600 zł zapewnia
użytkownikowi możliwość korzystania z systemu operacyjnego Windows, czterordzeniowego
procesora Intel Atom, 2 GB pamięci operacyjnej RAM i 16 pamięci
stałej.
– Nadal najbardziej popularne są
konstrukcje o kompaktowych wymiarach, wyposażone w ekran
o przekątnej długości do 8 cali – podsumowuje Krzysztof
Wójciak.
Z kolei producenci A-brandowi większą uwagę niż na
komponenty zwracają na wielkość ekranu i sposób komunikacji
z Internetem. Zdaniem Lenovo w Polsce najpopularniejsze są tablety
z 7-calowym wyświetlaczem oraz 8 lub 16 GB pamięci stałej. Większość
takich konstrukcji (ok. 70 proc.) łączy się z siecią za
pośrednictwem Wi-Fi. Druga pod względem wielkości sprzedaży grupa to tablety
z 10-calowym ekranem i modemem 3G lub LTE. Na trzecim miejscu,
z ok. 15-procentowym udziałem, znajdują się urządzenia 8-calowe,
również z modemem.
Zdania producentów i dystrybutorów w sprawie
przewidywanej wielkości sprzedaży tabletów w tym roku w Polsce są
bardzo podzielone. Bogdan Wiciński, CEO w Mancie, prognozuje, że popyt
może się zmniejszyć nawet o połowę. Z kolei Lenovo, powołując się na
badania IDC, twierdzi, że sprzedaż tabletów spada jedynie w niewielkim
stopniu.
–
Według danych GfK Polonia rynek tabletów w pierwszym półroczu 2015 wzrósł
o niecały procent względem tego samego okresu poprzedniego roku –powiedział Maciej
Piekarski, IT Product Manager, Consumer Choices w GfK Polonia. – Rezultat ten był
osiągnięty dzięki bardzo szybko rosnącemu segmentowi urządzeń z systemem
Windows, w tym hybryd, który był dwa razy większy niż rok wcześniej
i stanowi już 6 proc całego rynku. „Tradycyjne” tablety
z systemem Android oraz iOS zanotowały w tym czasie spadek sprzedaży
o 2 proc. Trudno oczekiwać równie dobrego wyniku w drugim
półroczu – spadki na rynku tabletów multimedialnych nabierają tempa,
ogółem rok zakończy się prawdopodobnie kilkuprocentowymi spadkami.
Krzysztof Wójciak uważa, że jest za wcześnie na
przewidywania, bo o wynikach zadecyduje sytuacja w czwartym,
statystycznie najlepszym kwartale roku. Trudno też ocenić, jaka platforma okaże
się dominująca – Android czy Windows.
– Tablety z Windows
8 nie przyjęły się tak, jak się spodziewano. Najprawdopodobniej to kwestia
małej ilości oprogramowania przeznaczonego dla platformy dotykowej. Sytuacja
może się zmienić wraz z wejściem Windows 10 – twierdzi
Łukasz Pietruszka.
Gdy na rynku pojawiały się pierwsze konstrukcje ze sprzętową
platformą Intela i oprogramowaniem Microsoftu, można było usłyszeć opinie,
że to doskonała alternatywa dla notebooka. Jednak klienci nie dali się
przekonać. Co nie znaczy, że przynajmniej część scenariusza nie ma szansy na
realizację.
– Tablety w ich obecnej
formie nie zastąpią notebooków. Jednak już teraz można zauważyć wzrost
zainteresowania modelami z Windows, których specyfikacja pozwala na
używanie ich w codziennej pracy – twierdzi Kamila Piec,
Product Manager TB Touch w AB. – Szansą dla rozwoju
tabletów jest szukanie nisz i specjalizacji, tworzenie produktów
dedykowanych, wnoszących konkretną funkcjonalność, np. tablety z rysikiem
czy w wersji rugged.
W tej ostatniej grupie niektórzy dostawcy widzą szansę
na rozwój.
– Z szerokiej oferty tabletów
widzimy zainteresowanie konstrukcjami z serii Inari, odpornymi na upadki,
zapylenie, wilgoć – mówi Artur Wzorek, Project Manager
w Dziale Rozwiązań Mobilnych NTT System. – To poszukiwane rozwiązanie
dla górnictwa, policji, budownictwa i pracowników innych branż
wymagających sprzętu, którego nie sposób uszkodzić.
Dywersyfikacja na rynku tabletów (pod względem funkcjonalnym
i użytkowym) jest, jak widać, bardzo duża. Producenci nie skupiają się na
tworzeniu uniwersalnych konstrukcji dla każdego. W coraz szerszej gamie
urządzeń są modele z ekranem o przekątnej długości od 7 do 10
cali, łączące się z Internetem przez Wi-Fi albo modem LTE,
z Androidem bądź systemem Windows i Office’em, pancerne, z klawiaturą…
Takiego wyboru sprzętu nie było dwa lata temu, gdy tablet osiągał szczyty
popularności. Nie pierwszy raz widać, że producenci dokładają starań, by
uatrakcyjnić sprzęt, gdy popyt przestaje rosnąć. Czy wysiłki te przyniosą
pożądany skutek? Sprawdzimy za rok.
Artykuł Rynek nasycony pochodzi z serwisu CRN.
]]>Artykuł Bing? Bingo! pochodzi z serwisu CRN.
]]>Gdy dwa lata temu na jednej z konferencji prasowych
Piotr Bieliński, prezes Actionu, powiedział, że nadchodzą czasy notebooków
kosztujących po tysiąc złotych, brzmiało to nierealnie. Niedawno stało się
jednak faktem.
– Sporym zainteresowaniem w pierwszej połowie roku
cieszyły się 15-calowe notebooki z systemem Bing, wyposażone
w procesor Intel Celeron, 2 GB pamięci RAM oraz 500-gigabajtowy dysk
twardy, a wszystko to w cenie między 900 a 1300 zł – potwierdza Szymon Winciorek, Business
Development Manager w Asus Polska.
Osiągnięcie tak niskich
cen było możliwe dzięki zastosowaniu w notebookach systemu operacyjnego
„Windows 8 with Bing”. Koncepcja Microsoftu okazała się strzałem
w dziesiątkę, zwłaszcza w przypadku rynków, które borykają się
z problemem drogiego dolara. Łatwo bowiem policzyć, że laptop w cenie
tysiąca złotych wtedy i dziś to jednak niezupełnie to samo.
Analizując ceny
notebooków, koniecznie trzeba zaznaczyć, że maszyny z systemem
w standardowej wesji drożały tak samo jak desktopy.
– W związku ze zmianą kursu dolara
w pierwszej połowie bieżącego roku notebooki podrożały nawet
o kilkanaście procent – mówi Andrzej Pyka, Sales Manager
B2B w Toshiba Europe.
Spadek cen w dolarach nie tylko zniwelował występujące
na polskim rynku podwyżki wynikające ze wzrostu kursu amerykańskiej waluty, ale
także umożliwił klientom na zakup lepszego sprzętu za tę samą kwotę.
Jednocześnie sytuacja na rynku walut spowodowała, że ceny desktopów wzrosły
znacząco i stały się one sporo
droższe od komputerów przenośnych. Za taniego peceta trzeba bowiem zapłacić od
1 tys. do 1,5 tys. zł, a przecież wymaga on jeszcze zakupu
monitora za dodatkowe kilkaset złotych. O tym, że klienci wybierali
notebooka zamiast desktopa, dobitnie świadczy to, że największym powodzeniem
cieszyły się urządzenia z dużymi ekranami, czyli o przekątnej długości
15,6 cala. W dobie coraz bardziej dominującego sprzętu mobilnego komputer
z takim wyświetlaczem trudno uznać za przenośny, zwłaszcza że jego waga
wynosi zwykle co najmniej 2,5 kg.
Tanie notebooki stały się też alternatywą dla tabletów. Rok
temu pisaliśmy, że klienci rozczarowani małymi możliwościami urządzeń
i dużą awaryjnością tanich modeli zaczęli coraz częściej spoglądać
w stronę notebooków. Tym bardziej że na solidny tablet trzeba było wydać
od 500 zł do 1 tys. zł, czyli niewiele mniej niż na notebooka,
który jest pełnokrwistym komputerem, a nie jego namiastką.
Lista typów komputerów przenośnych jest, jak wiadomo, długa.
Obok notebooków na rynku mamy już od kilku lat ultrabooki, netbooki
i chromebooki, a także kuszące dwoistością swojej natury hybrydy.
Mimo to polski klient najczęściej sięga po zwykłego laptopa, a cała reszta
nieśmiało upomina się o miejsce na rynku. Od lat tradycyjne konstrukcje
stanowiły niezmiennie grubo ponad 90 proc. sprzedawanych komputerów
mobilnych. Jak było w minionym półroczu? Zdania są podzielone.
– Około 70 proc. sprzedaży komputerów przenośnych
stanowią notebooki, ultrabooki to 15 proc, zaś hybrydom i chromebookom
przypada ostatnie 15 proc.
– mówi Paweł Rybitwa, Business Unit Manager of Personal Computers &
Software Department w Actionie. – Klienci oczekują od notebooka przede wszystkim mobilności i wydajności.
Dlatego uważam, że ultrabooki albo notebooki pretendujące do bycia ultrabookami
mogą się wkrótce okazać tym, czego użytkownicy będą szukali najczęściej.
Również HP odnotowało zwiększony popyt na nowe konstrukcje.
– Coraz więcej klientów wybiera urządzenia hybrydowe – twierdzi Marcin Wesołowski, Country
Category Manager w polskim przedstawicielstwie HP. – Stanowiły one w minionym półroczu około 10 proc.
rynku komputerów przenośnych. Kolejne 10 proc. przypadło ultrabookom, zaś
pozostałe 80 proc. tradycyjnym laptopom.
Nieznaczna, ale zauważalna tendencja spadkowa
w segmencie tradycyjnego sprzętu mobilnego jest również widoczna
w AB.
– Konfiguracje zbudowane na bazie
kadłubków, z matrycami LCD o rozmiarze 15,6 cala stanowią
80–90 proc. sprzedaży produktów klasyfikowanych jako notebooki –
powiedział Tomasz Krajewski, Product Manager w AB.
Z kolei w Lenovo zwracają uwagę na rosnący popyt
na ultrabooki i hybrydy i jednoczesną stagnację w segmencie
netbooków. Opinie przedstawicieli tego producenta są niezwykle cenne, gdyż
Lenovo od kilku już lat jest liderem krajowego rynku. Według danych IDC
w pierwszej połowie 2015 r. koncern osiągnął ponad 46-proc. udział
w kategorii notebooków konsumenckich i konsekwentnie powiększa swoje
udziały w segmencie klientów instytucjonalnych. Daniel Malak, Consumer
Business Manager w Lenovo, zapowiada, że dostawca w najbliższym
czasie będzie uzupełniać ofertę o budżetowe notebooki o przekątnej
długości 11,6 cala, zaś klientom poszukującym rozwiązań 10-calowych zaproponuje
ultraprzenośny tablet Lenovo Yoga z klawiaturą i Windows 10.
Jednym ze sposobów,
w jaki Lenovo chce zwiększyć obecność na rynku instytucjonalnym, jest
powiększenie listy dystrybutorów. W marcu producent podpisał nową umowę na
wybrane notebooki z biznesowej serii ThinkPad (weszły do oferty NTT
System), zaś w czerwcu została ona rozszerzona – obecnie ma dystrybutor
w portfolio ponad 60 modeli notebooków i tabletów adresowanych do
biznesu, w tym konstrukcje z serii L440 czy T440P oraz nowe tablety
Yoga 14 i 15.
Warto podkreślić, że na pozycji wicelidera umocnił się Asus.
Tajwański producent deklaruje sprzedaż w wysokości ok. 180 tys. notebooków,
z których 152 tys. trafiło do użytkowników indywidualnych (według
szacunków CRN Polska sprzedaż Asusa sięgnęła w omawianym okresie nawet 200 tys.
sztuk). Na trzecie miejsce awansowało HP, odnotowując wręcz gigantyczny, ponad
50-proc. wzrost dzięki sprzedaży 157 tys. laptopów.
Kroku wspomnianej trójce
dotrzymuje Dell, który zanotował kilkunastoprocentowy wzrost. Gorzej wiedzie
się natomiast takim markom jak Toshiba i Acer, które w dalekiej
przeszłości dominowały w Polsce, a ostatnio popadły w niełaskę
u rodzimych klientów i wciąż schodzą na dalszy plan. Acer, który
w pierwszej połowie zeszłego roku sprzedał 126 tys. notebooków,
w bieżącym zszedł na drugi plan. Podobnie jak Toshiba na wykresach w
znalazł się w kategorii „pozostali”…
Artykuł Bing? Bingo! pochodzi z serwisu CRN.
]]>Artykuł Wyjście z niszy pochodzi z serwisu CRN.
]]>Co więcej, wszystkie nowe komponenty – kluczowe dla
konfiguracji komputera, bo decydujące o jego mocy obliczeniowej – są
nie tylko zdecydowanie wydajniejsze od poprzedników, ale też pobierają znacznie
mniej prądu i wydzielają mniej ciepła. Sumą tych wszystkich zmian jest nie
tyle przyspieszenie ewolucyjnego procesu, co wręcz niewątpliwy skok
technologiczny.
Na rozwoju w największym stopniu zyskują komputery
przenośne. Czas działania notebooka na akumulatorach jest odwrotnie
proporcjonalny zarówno do poboru mocy, jak i wydajności. Jako że ta
ostatnia powinna być możliwie największa, koniecznym warunkiem postępu jest
obniżenie zużycia energii. Dla komputerów stacjonarnych i maszyn
All-in-One zmniejszanie poboru mocy nie jest co prawda kluczowe, niemniej jednak
zdecydowanie mile widziane. Resellerzy z wieloletnim stażem
z pewnością pamiętają pierwsze komputery ukryte w obudowie monitora,
które nie zyskały uznania klientów właśnie dlatego, że były duże, ciężkie,
głośne, a podczas pracy gorące jak piec kaflowy.
Co więcej, miniaturyzacja, która pozwoliła już na tak wiele,
jest procesem ciągłym i w najbliższym czasie może w jeszcze
bardziej widoczny sposób wpłynąć na losy konstrukcji All-in-One.
– Dziś gabaryty maszyn All-in-One
jeszcze nieco odbiegają od wymiarów samych monitorów – mówi Łukasz
Rutkowski, DT&WS BDM Lenovo. – Jest jednak pewne, że już
niedługo będziemy mogli oferować modele, które nie będą różnić się od
standardowych monitorów nawet w najmniejszym stopniu.
Zdaniem producentów AiO powinno być z punktu widzenia
dużej części użytkowników oczywistym wyborem. Jeżeli dokonują zakupu desktopa,
wynika to z obaw, że maszyna, która mieści się w obudowie monitora,
nie będzie w stanie w pełni zaspokoić ich potrzeb. Innymi słowy,
klienci po prostu nie są świadomi, że AiO pod żadnym względem nie ustępuje
komputerowi stacjonarnemu. Sytuację doskonale obrazuje porównanie najczęściej
wybieranych konfiguracji.
– Najpopularniejsze modele AiO
w pierwszej połowie roku zawierały procesor Intela iCore i3 lub i5,
4 GB pamięci operacyjnej i dysk o pojemności 500 GB lub
1 TB – wylicza Joanna Pawłowska, Product Manager
w Actionie.
Dokładnie te same
komponenty tworzą najczęściej sprzedawaną obecnie konfigurację desktopów. Taką,
która wystarcza praktycznie do wszystkich typowych zastosowań i – co
tu dużo mówić – całkiem przeciętną, bo przecież na rynku mamy już
procesory iCore szóstej generacji. Tyle że – jak należy się domyślać
– z punktu widzenia przeciętnego użytkownika, nie bardzo zaprzątającego
sobie głowę takimi szczegółami jak konfiguracja, desktop to desktop,
a więc maszyna w obudowie o konkretnych rozmiarach, której
zawartość z pewnością okaże się wystarczająca przez bardzo długi okres.
Przy okazji warto pamiętać, że obecnie zapotrzebowanie na wzrost wydajności
standardowego komputera nie jest już takie duże jak dawniej, co dodatkowo czyni
powyższe rozumowanie nieuzasadnionym.
– Wymagania ze strony systemów
operacyjnych czy też aplikacji pozostają od dłuższego czasu na podobnym
poziomie, a poza tym mamy do czynienia z wysypem aplikacji
w chmurze, które działają poprzez przeglądarkę
– podsumowuje Łukasz Rutkowski.
Wielkość rynku komputerów ze zintegrowanym monitorem jest
trudna do oszacowania. Do niedawna w zestawieniach sprzedaży modele
All-in-One zwykle nie funkcjonowały jako autonomiczne rozwiązania, ale były
łączone z desktopami. Mimo że sytuacja powoli zaczyna się zmieniać
i obecnie coraz częściej można uzyskać dane o wielkości sprzedaży
AiO, problemem pozostaje porównanie obecnych wyników z tymi z lat
poprzednich.
– Rynek komputerów AiO jest jeszcze
bardzo niestabilny, a zasadniczy wpływ na wielkość sprzedaży mają duże
przetargi, dlatego trudno jest oceniać trendy na przykład na podstawie dwóch
kwartałów – mówi Marcin Wesołowski, Country Category Manager
w polskim oddziale HP.
Bardzo dobrym przykładem jest sytuacja sprzed dwóch lat.
W 2013 r. statystyki sprzedaży AiO nagle poszybowały w górę, gdy
Lenovo wygrało przetarg na dostawę 28 tys. tego typu maszyn dla Ministerstwa
Finansów (na wyposażenie izb skarbowych). W efekcie w pierwszej
połowie 2013 r. popyt na AiO wzrósł dwukrotnie w porównaniu
z tym samym okresem 2012 r., co nie dawało jednak gwarancji, że
w przyszłości nastąpi znacząca progresja.
Obecnie liderem w tym segmencie jest wspomniane już
Lenovo, którego rynkowy udział na przestrzeni kwartałów układa się na kształt
sinusoidy – zgodnie z wygrywanymi przetargami. Podobną sinusoidę,
choć o mniejszej amplitudzie i znajdującą się w przeciwfazie do
wyników chińskiego konkurenta, tworzą udziały HP.
– W drugim kwartale
2015 r. zanotowaliśmy prawie 5-krotny wzrost sprzedaży, co dało nam
w tym okresie pozycję lidera polskiego rynku AiO z udziałem na
poziomie 27 proc. – mówi Marcin Wesołowski.
Komputery ze zintegrowanym monitorem to bardzo dobra
propozycja przede wszystkim dla rynku instytucjonalnego. Zajmując niewiele
miejsca i pobierając mało prądu, stanowią świetną alternatywę dla
desktopów w biurach i urzędach. Praktycznie wszyscy producenci są
zdania, że w tego typu zastosowaniach AiO będą systematycznie wypierały
standardowe komputery stacjonarne.
– W samym pierwszym kwartale
ogłoszono przetargi na dostawy około 15 tys. komputerów AiO
– mówi Tadeusz Kurek, prezes NTT System. – Liczby
systematycznie rosną i spodziewam się, że w drugim półroczu za
pośrednictwem przetargów krajowy rynek wchłonie od 50 do 60 tys. takich maszyn.
Aktualnie segment odbiorców indywidualnych jest zdecydowanie
szczuplejszy i zdominowany przez sieci detaliczne. Na razie jest to
– jak wyraził się Szymon Winciorek, Business Development Manager
w Asus Polska – „dosyć płytki rynek”, na którym sprzedaż kształtuje
się na poziomie 1–1,3 tys. miesięcznie.
Z pewnością istotnym argumentem przemawiającym za
wyborem AiO są ceny. Jeszcze dwa lata temu maszyna tego rodzaju kosztowała dwa
razy tyle co desktop o analogicznej konfiguracji. Obecnie sytuacja uległa
radykalnej zmianie, również dlatego że pecety stacjonarne w tym roku
drożeją (z racji słabej kondycji złotówki w relacji do walut),
zaś AiO tanieją. W rezultacie ceny obu tych produktów są porównywalne.
Mało tego, dziś bez trudu można kupić komputer ze zintegrowanym monitorem
w cenie poniżej 1 tys. zł. Tyle kosztują obecnie rozwiązania
z panelem o przekątnej poniżej 20 cali.
Artykuł Wyjście z niszy pochodzi z serwisu CRN.
]]>