Artykuł Ciężki żywot nośnika danych pochodzi z serwisu CRN.
]]>Mogą zacząć od królującego w statystykach standardu LTO. Liczy sobie 16 lat i został opracowany przez konsorcjum firm HP, Quantum oraz IBM. Pod koniec ubiegłego roku do sprzedaży trafiła już siódma generacja LTO. Taśmy LTO-7 mają 6 TB fizycznej pojemności oraz zapewniają transfer danych na poziomie 300 MB/s. Bardzo przyzwoite parametry wydajnościowe gwarantują także starsze wersje LTO-6 i LTO-5. Co istotne, począwszy od wersji LTO-5, użytkownicy mogą korzystać z otwartego formatu przechowywania danych LFTS, umożliwiającego wyszukiwanie pojedynczych plików i ich odtwarzanie.
Taśma zawdzięcza swoją nieśmiertelność konkurencyjnym cenom i temu, że nie zużywa energii. Cieszy się też dłuższą żywotnością. Eksperci obliczyli, że odpowiednio przechowywane taśmy mogą zostać odczytane nawet po kilkudziesięciu latach. Według informacji pochodzących od konsorcjum LTO w 2015 r. producenci sprzedali taśmy w tym standardzie o łącznej pojemności 76 tys. PB. To oznacza nie tylko wzrost o 17,8 proc. w ujęciu rocznym, ale również najlepszy wynik w całej historii standardu LTO. Warto dodać, że od 2000 r. firmy oraz instytucje kupiły nośniki LTO o pojemności przekraczającej 385 tys. PB. Nie wiadomo czy bieżący rok przyniesie kolejny rekord. Natomiast jedno jest pewne: warto zatrzymać taśmy w ofercie, bowiem w najbliższych lat przydadzą się w dużych firmach i instytucjach korzystających z długoterminowej archiwizacji offline.
Dostawcy taśm chwalą się ilościowymi przyrostami sprzedaży, aczkolwiek na tle sprzedaży dysków korporacyjnych prezentują się one dość skromnie. Według IDC w drugim kwartale 2016 r. producenci serwerów i macierzy sprzedali 30?819,79 PB powierzchni dyskowej. Nośniki HDD, jak i SSD idealnie nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania i archiwizowania danych są niemal nieograniczone. Należy się też liczyć z rosnącą rolą dysków mechanicznych w systemach back-upu online i prostych rozwiązaniach do replikacji danych.
Niestety, „twardziele” nie gwarantują danym nieśmiertelności. W przypadku zapisu magnetycznego na HDD zachodzi zjawisko zaniku ładunku magnetycznego. Wprawdzie proces przebiega dość wolno i wynosi ok. 1 proc. rocznie, ale w dłuższej perspektywie może zagrażać bezpieczeństwu danych. Dyski twarde zawierają także delikatne elementy mechaniczne, które są podatne na uszkodzenia.
Zresztą czas życia „twardziela” jest swego rodzaju loterią. Dysk mechaniczny czasami potrafi pracować ponad dekadę, ale zdarzają się przypadki, że nie wytrzymuje nawet rocznej eksploatacji. Niektórzy producenci poszukują złotego środka, spajającego najlepsze cechy napędów taśmowych i dysków twardych, oferując napędy RDX. Rozwiązanie składa się ze stacji dokującej oraz przenośnych 2,5-calowych dysków twardych z wymienialnymi kasetami, chroniącymi nośniki przed wstrząsami i upadkami. Technologia wymiennej pamięci masowej RDX łączy mobilność i niezawodność taśm z szybkością odczytu i zapisu danych oraz prostotą obsługi dysków twardych. Pomimo tego, w Polsce nie cieszy się zbyt dużym powodzeniem.
– HPE sprzedaje w Polsce niewiele rozwiązań RDX. Zazwyczaj kupują je hotelarze oraz małe firmy, które nie zatrudniają informatyków. Przedsiębiorstwa częściej wybierają zaawansowane technologie taśmowe LTO – tłumaczy Wojciech Kozikowski, Storage Solution Architect w HPE.
W podobnym tonie wypowiada się Tomasz Filipów, prezes Diskus. Fakt, że w Polsce nośniki RDX nie cieszą się popularnością tłumaczy wysoką ceną, małymi nakładami marketingowymi producentów i niewielkim zainteresowaniem ze strony dystrybutorów i resellerów.
– Zupełnie inaczej jest Niemczech, gdzie z produktów RDX korzystają małe firmy oraz osoby wykonujące wolne zawody – zauważa Tomasz Filipów.
Eksperci i analitycy prognozują, że w najbliższej przyszłości pierwszoplanową rolę na rynku pamięci masowych odgrywać będą dyski SSD. Są wydajne, energooszczędne, bezgłośne i praktycznie pod każdym względem biją na głowę mechanicznych kuzynów. Dyski HDD zawdzięczają rynkowy byt cenie. Za nośnik SSD trzeba zapłacić 20–50 centów za 1 GB, w zależności od pojemności i rodzaju układu NAND. Natomiast cena zwykłego dysku twardego o wielkości 1 TB wynosi około 4 centów za 1 GB. Różnica wciąż jest zatem duża, ale będzie sukcesywnie maleć. Samsung zapowiada, że w 2020 r. klienci wydadzą na zakup napędu SSD 512 GB tyle, ile dziś przeznaczają na dysk mechaniczny o pojemności 1 TB.
Mirosław Chełmecki, dyrektor Działu Serwerów i Pamięci Masowych, Veracomp Wybór odpowiedniej metody zabezpieczania i przechowywania danych to bardzo istotna kwestia. Każda firma powinna posiadać właściwą strategię zarządzania nimi. Należy przy tym pamiętać, że w przedsiębiorstwie mamy do czynienia z dwoma rodzajami danych. Pierwsze to dane krytyczne, do których musimy mieć stały dostęp. Drugą grupę stanowią dane używane sporadycznie, przechowywane ze względu na regulacje i różnorakie aspekty prawne. W wyborze nośnika należy uwzględniać takie cechy jak: pojemność, cena rozwiązania z uwzględnieniem napędów, „żywotność” i ewentualna kompatybilność wstecz, podatność na zniszczenie, rozmagnesowanie itp.
Rafał Nowogrodzki, Product Manager Servers & Storage, AB Resellerzy powinni uważnie śledzić zmiany na rynku nośników, także tych z kategorii taśm magnetycznych. Równolegle warto zainteresować się nowszymi rozwiązaniami, takimi jak nośniki magnetyczne (dysk HDD, RDX) i pamięci flash. Rolą resellera powinno być doradztwo w wyborze najbardziej adekwatnego rozwiązania dla klienta, ponieważ takie podejście gwarantuje długofalowe i partnerskie relacje. To z kolei przełoży się na efekty sprzedażowe.
Jerzy Adamiak, konsultant ds. systemów pamięci masowej, Alstor Taśma jest jedynym dostępnym nośnikiem wymiennym, gwarantującym niezawodność przechowywania danych w długim okresie – przez minimum 30 lat. Resellerzy powinni mieć w ofercie taśmy, gdyż dla wielu użytkowników pozostają jedynym wyborem. Jednakże cena pojedynczego nośnika jest dużo niższa niż dysku mechanicznego, nie wspominając o macierzach i serwerach NAS. W związku z tym sprzedaż taśm nie przynosi zbyt dużych profitów.
Piotr Biela, członek zarządu netology Jeszcze rok czy dwa lata temu, kiedy była mowa o długoterminowym składowaniu dużych ilości danych lub zadaniach archiwizacyjnych, taśma magnetyczna wydawała się naturalnym wyborem. Decydowała o tym dojrzałość tej technologii i całkiem dobra relacja pojemności do ceny. Dzisiaj nie jest to już takie oczywiste. Miejsce „na tronie” zaczynają zajmować zbudowane w modelu SDS obiektowe systemy pamięci masowych, które już teraz oferują porównywalne parametry cenowe (TB/PLN). Jednocześnie zapewniają dostęp do funkcji niedostępnych dla napędów LTO: weryfikacji dostępności i spójności danych, deduplikacji, replikacji do lokalizacji zdalnych czy możliwości integracji z chmurowymi usługami składowania danych. Wszędzie tam, gdzie potrzeba wysokich wydajności, rządzi technologia Flash.
Spadek cen sprawia, że pamięci flash szybko zdobywają nie tylko rynek konsumencki, ale również rozwiązań korporacyjnych. W II kwartale bieżącego roku przychody ze sprzedaży systemów all-flash osiągnęły poziom 1,1 mld dol., o 94,5 proc. więcej niż rok wcześniej. Dużym popytem cieszą się też rozwiązania hybrydowe, łączące nośniki SSD oraz HDD, które wygenerowały obrót w wysokości 2,3 mld dol., co daje im 26-proc. udział w rynku systemów pamięci masowych. W najbliższym czasie rodzimi resellerzy powinni bardziej skoncentrować się na sprzedaży rozwiązań hybrydowych. W Polsce wciąż niełatwo o klientów poszukujących „czystych” systemów flash.
Przewożenie danych w walizce może się wydawać w obecnych czasach anachronizmem. Jednak przykład usług Amazon Snowball pokazuje, że nawet dostawcy najnowszych technologii od czasu do czasu korzystają z klasycznych rozwiązań. Ten specyficzny dysk, o pojemności 80 TB, waży 25 kg i służy do przewożenia danych, najczęściej z siedziby klienta do data center lub odwrotnie. Nie wszyscy muszą korzystać z tak zaawansowanych rozwiązań do transportu danych, w większości wypadków wystarczą specjalne walizki. Wszystko wskazuje, że mimo rosnącej przepustowości sieci, wciąż trzeba będzie korzystać z tego typu akcesoriów.
Walizki na nośniki wydają się być nieodzowne podczas składowania kopii zapasowych w nowym miejscu, przeprowadzki firmy czy przewożenia danych do zagranicznego oddziału. Dzielą się zazwyczaj na dwie kategorie: do dysków twardych i taśm. Taśmy mają stosunkowo dużą odporność na wstrząsy, nawet upadek z wysokości 1 m nie powinien być groźny. Natomiast dyski są dużo bardziej delikatne. Transportowane nośniki umieszczane są w wodoodpornych i pyłoszczelnych komorach, które mogą być cały czas monitorowane przez system GPS. Jeśli walizka zostanie otwarta przez osoby do tego nieupoważnione, system wyśle powiadomienie.
Niektóre przedsiębiorstwa zaopatrują się w specjalne sejfy do przechowywania nośników danych. Cyfrowe zasoby często trzeba chronić nie tylko przed hakerami, ale również włamywaczami i rozmaitymi żywiołami. Sejfy na nośniki danych, oprócz tego, że posiadają specjalne przegrody do przechowywania taśm, dysków twardych, płyt DVD i CD, chronią też przed ogniem. Ta ostatnia właściwość ma szczególne znaczenie, bowiem nośniki są bardzo wrażliwe na wysoką temperaturę i mogą ulec zniszczeniu, kiedy osiągnie ona 55oC. Niektóre modele sejfów, zgodne z certyfikatem S 120 DIS, gwarantują 2 godziny odporności ogniowej. Inne właściwości zapewniają ochronę danych przed np. działaniem wody przez 4 godz. na głębokości 3 m.
Sprzedaż walizek i sejfów przeznaczonych do przechowywania danych nie należy do najbardziej intratnych biznesów. Zdecydowana większość przedsiębiorców nie wykazuje tak dużej troski o dane, aby sięgać po specyficzne zabezpieczenia. Czasami nawet nie wiedzą o istnieniu takich produktów. Dlatego podczas sprzedaży macierzy dyskowej, serwera NAS, przenośnych dysków, a nawet usług chmurowych, warto wspomnieć o tych mniej znanych, aczkolwiek przydatnych rozwiązaniach.
Warto zwrócić uwagę na fakt, że za prędkością odczytu i zapisu nie zawsze nadąża wytrzymałość. Producenci coraz częściej wkładają do swoich urządzeń, w tym również do macierzy, nośniki TLC NAND flash. W ubiegłym roku wykorzystano tę technologię w 50 proc. wyprodukowanych układów scalonych. Co to oznacza dla cyklu życia nośników? Poszczególne rodzaje pamięci różnią się ceną i żywotnością. W przypadku układów SLC NAND maksymalna liczba cykli kasowania i programowania pojedynczej komórki pamięci wynosi 100 tys. cykli, dla MLC NAND waha się między 3 a 10 tys., a dla TLC NAND – od 500 do 3 tys. Jak widać, optymalne możliwości w zakresie odczytu i zapisu gwarantuje SLC NAND, który mieści 1 bit danych w komórce. Ze względu na stan komórki SLC (może być pusta lub pełna) proces przebiega szybko. Niestety, układy są na tyle drogie, że stały się rozwiązaniem niszowym. Natomiast najbardziej pojemna komórka TLC NAND (mieści 3 bity danych) potrzebuje cztery razy więcej czasu na zapisanie oraz dwa i pół raza więcej czasu na odczytanie danych niż komórka SLC.
Klęski żywiołowe i wady techniczne nośników napędzają popyt na usługi odzyskiwania danych. W Polsce ten obszar zagospodarował Kroll Ontrack. Niemniej jednak podobne usługi oferują również HD Lab, Mediarecovery oraz Data Lab. Jacek Ruszkowski, koordynator kontraktów z Comp, zwraca uwagę na malejący popyt na usługi odzyskiwania danych ze strony klientów korporacyjnych.
– Zauważamy niesłabnące zainteresowanie usługami odzyskiwania danych głównie wśród osób prywatnych, a także instytucji publicznych i małych przedsiębiorstw. Znacznie rzadziej trafiają do nas nośniki z dużych przedsiębiorstw, gdzie na szeroką skalę wdrożone są systemy zabezpieczające krytyczne dane. Na rynku pojawiają się coraz bardziej dostępne cenowo rozwiązania zapewniające zabezpieczanie danych – mówi Jacek Ruszkowski.
Choć w dużych firmach poziom wiedzy w tym zakresie jest wyższy i korzysta się z systemów, w których awaria jednego czy dwóch napędów nie powoduje utraty danych, ich odzyskiwanie pozostanie lukratywnym przedsięwzięciem. Wciąż nie brakuje ludzi bezmyślne obchodzących się ze sprzętem, a przyrastająca ilość danych sprawia coraz więcej kłopotów z ich nośnikami. Niewiadomą jest też wytrzymałość dysków SSD, w tym dopiero wchodzących na rynek modeli z pamięciami 3D NAND.
– Możliwość oferowania usług odzyskiwania danych ma także znaczący wpływ na budowanie lojalności dotychczasowych kontrahentów. Aż 89 proc. naszych certyfikowanych partnerów stwierdziło, że dzięki dostarczeniu profesjonalnej usługi odzyskiwania danych otrzymali od klienta dodatkowe zamówienia – dodaje Adam Kostecki, dyrektor ds. sprzedaży w Kroll Ontrack.
Na firmowych taśmach i dyskach spoczywa wiele cennych informacji. W sytuacji gdy przedsiębiorstwo likwiduje lub naprawia sprzęt, polskie prawo wymaga od niego bezpowrotnego kasowania danych z urządzeń i nośników elektronicznych. Można to zrobić na dwa sposoby: sformatować dysk przy użyciu specjalistycznego oprogramowania lub zniszczyć nośnik razem z danymi, wykorzystując do tego demagnetyzer, niszczarkę bądź metodę chemiczną. Oprogramowanie stosuje się, aby skasować dane, ale zachować sprawność dysku lub taśmy. Eksperci zalecają posługiwanie się aplikacjami posiadającymi międzynarodowe certyfikaty wydane przez NATO czy Departament Obrony Stanów Zjednoczonych. Bardziej inwazyjnie działają demagnetyzery, które kasują dane i niszczą nośnik w ciągu niespełna minuty.
W sprzedaży są też dostępne urządzenia, które wyposażono w mechanizm przedpłat Pre-Paid Management System (PPMS). Mają one zastosowanie w sytuacji gdy klient nie zgadza się na wywiezienie dysków z jego siedziby, ale też proces niszczenia jest rozciągnięty w czasie, np. kilka nośników dziennie. Wówczas firma świadcząca usługi niszczenia danych może takie urządzenie odpłatnie wypożyczyć, ale jednocześnie ustawić maksymalną liczbę cykli kasowania, po której przekroczeniu następuje blokada.
Jak długo żyje dysk mechaniczny? Ciekawe dane na temat wytrzymałości
dysków twardych przynoszą badania BackBlaze. Ta amerykańska firma, świadcząca usługi backupu online, co kwartał publikuje zestawienia awaryjności nośników. Usługodawca przechowuje zasoby cyfrowe na autorskich macierzach Storage Pod, w których instaluje dyski konsumenckie. Większość providerów unika tego typu praktyk, aczkolwiek BackBlaze w ten sposób obniża koszty. Według ostatniego raportu obejmującego roczną eksploatację nośników od 1 kwietnia ubr. do 31 marca br. najlepiej wypadły dyski HGST z awaryjnością na poziomie 1,03 proc., a druga lokata przypadła napędom Toshiby (3,06 proc.). Gorzej wypadły urządzenia dwóch największych producentów: Seagate (3,46 proc.) oraz WD (6,55 proc). Na uwagę zasługuje fakt, iż w przypadku Seagate’a wynik jest znacznie lepszy niż w poprzednim badaniu, kiedy to awaryjność jego dysków wynosiła 10,68 proc.
Artykuł Ciężki żywot nośnika danych pochodzi z serwisu CRN.
]]>Artykuł Ostatni taki rok pochodzi z serwisu CRN.
]]>Oczywiście
trudno powiedzieć, jak szybko klienci docenią nowe rozwiązania. Tempo zmian
zależy w pewnym stopniu od producenta, a ściślej od cen. Można
jedynie spekulować, że nie będzie ono zawrotne, bo Intel w ostatnich
latach zdecydowanie wzmocnił swoją pozycję na rynku i odzyskał udziały
stracone w poprzedniej dekadzie, gdy AMD wprowadziło do sprzedaży układy
z magiczną liczbą 64. Użytkownicy powinni życzyć temu producentowi wielu
nowości, które zmusiłyby Intela do obniżenia cen układów z serii Core
M. Na razie dalszą ofensywę zapowiada lider światowego rynku procesorów.
– W
komputerach i tabletach wykorzystywana będzie coraz częściej technologia
Intel RealSense. Oznacza to powszechne zastosowanie kamer 3D, które umożliwiają
sterowanie komputerem za pomocą gestów, bezpieczne logowanie użytkownika na
podstawie skanu jego twarzy i skanowanie obiektów w 3D– tłumaczy
Stanisław Góralczyk, kierownik marketingu konsumenckiego w Intelu. – W przypadku tabletów możliwa będzie
zmiana ogniskowej, a w drugiej połowie roku powinniśmy zobaczyć
pierwsze urządzenia z bezprzewodowym ładowaniem.
W
2015 r. najprawdopodobniej po raz ostatni w historii będą dominowały
dyski magnetyczne. Oczywiście nie znikną one całkowicie, ponieważ będą wciąż
doceniane przez tych klientów, którzy potrzebują dużo pamięci. W przypadku
desktopów, w których są stosowane dyski 3,5-calowe o pojemnościach
2 czy 4 TB, dyski magnetyczne pozostaną standardem. Jednak już
w przypadku komputerów przenośnych sytuacja ulegnie zmianie. Dyski SSD
zaczną szybko zdobywać rynek, choćby dlatego że pobierają ponad 10-krotnie
mniej prądu niż ich odpowiedniki z talerzami magnetycznymi. Warto zaznaczyć,
że w swojej kategorii, czyli urządzeń 2,5-calowych, napędy SSD już
w zeszłym roku były dużo częściej kupowane niż HDD.
– Szacujemy, że w 2014 r. sprzedano
w Polsce 900–950 tys. dysków HDD, czyli około 5 proc. mniej niż rok
wcześniej – mówi Norbert Koziar, szef polskiego przedstawicielstwa WD.
– Głównie nabywane były dyski
3,5-calowe, ich sprzedaż wyniosła około 700–750 tys., zaś dysków 2,5-calowych
około 200 tys.
Nie ma
jeszcze dokładnych danych dotyczących zeszłorocznego popytu na SSD, ale liczba
sprzedanych dysków mieści się w przedziale od 400 do 500 tys. To
oznacza, że klienci kupili w 2014 r. dwa razy więcej 2,5-calowych SSD
niż HDD.
W bieżącym roku dysproporcja w sprzedaży obu typów
nośników danych będzie się z pewnością powiększała na korzyść SSD, za
sprawą nowych modeli z komórkami pamięci NAND typu TLC – Tripple
Level Cell. Przypomnijmy, że do tej pory dominowały urządzenia z nośnikami
MLC (Multi Level Cell), które stosowano w około 90 proc. dysków SSD.
Pozostałe 10 proc. zawierało nośniki z komórkami SLC (Single Level
Cell). Te ostatnie działają dużo szybciej i są trwalsze od MLC, ale też
dużo droższe. Komórki pamięci NAND typu TLC są w produkcji jeszcze tańsze
od MLC. Dyski zbudowane na bazie komórek TLC będą tańsze i niebawem
pojawią się na naszym rynku. Będą one taniały również z innych przyczyn.
– Szacujemy, że ceny
dysków SSD w 2015 roku spadną o około 30–40 proc.
– mówi Paweł Śmigielski, dyrektor do spraw rozwoju w Kingston
Technology. – Stanie się to za
sprawą postępu technologicznego, ale także nadprodukcji na rynku dysków SSD.
Nie bez wpływu na ceny nośników będzie także agresywna walka konkurencyjna
pomiędzy czołowymi producentami dysków.
Bardzo możliwe, że nadprodukcja kości pamięci będzie
spowodowana brakiem zamówień od dostawców tabletów, którzy spodziewali się dużo
większego popytu…
Jakie pojemności będą dominowały w bieżącym roku
i jakie są szacunki dotyczące popytu na SSD? Zdaniem Pawła Śmigielskiego
krajowy rynek może wchłonąć nawet 700 tys. napędów SSD. Nieco bardziej ostrożny
w szacunkach jest Wiesław Wilk. Zdaniem prezesa Wilk Elektronik, krajowego
producenta pamięci RAM, USB i SSD, faktyczna liczba sprzedanych dysków
będzie się zawierała w przedziale między 500 a 700 tys.
– W 2014 roku
najpopularniejszą pojemnością dysków SSD było 120 GB – mówi Paweł
Śmigielski. – Obecnie stale przybywa
klientów kupujących napędy o pojemności 240 GB, a nawet
480 GB. Ze względu na postępujący spadek cen spodziewamy się, że
w 2015 r. najczęściej sprzedawane będą dyski 240-gigabajtowe, które
będą stanowić około 50 proc. rynku. Kolejne 20 proc. zajmą SSD
o pojemności 480 GB.
Zdaniem Wiesława Wilka
standardowa pojemność dysku w bieżącym roku się nie zmieni i będzie
to jak w zeszłym roku 120, 128 GB…
– Liczba sprzedanych
dysków 120-, 128-gigabajtowych nie przekroczy wolumenu sprzedaży modeli
o pojemnościach 240 i 256 GB – twierdzi Wiesław Wilk.
– Popyt na większe pojemności będzie
zauważalny dopiero w trzecim kwartale. Powód jest bardzo prosty: dyski
120-gigabajtowe będą w pierwszej połowie roku kosztowały 200 zł, zaś
240-gigabajtowe – 350 zł. Wraz z popularyzacją napędów
z nośnikami TLC, w drugiej połowie roku pojawią się modele
240-gigabajtowe w cenie 300 zł. Wtedy zacznie się nie tylko ich dominacja
nad 120-gigabajtowymi, ale zaczną one wypierać tradycyjne dyski jako główny
nośnik danych.
Producenci pamięci są bardzo ostrożni
w przewidywaniach. Nic dziwnego, ceny kości RAM potrafią się zmieniać
błyskawicznie, podlegając fluktuacjom, dla których nie zawsze łatwo znaleźć
racjonalne podstawy. W 2015 r. należy się spodziewać raczej spadków
cen pamięci niż wzrostów.
– W pierwszym kwartale
roku ceny komponentów do produkcji DDR3 i DDR4 będą spadać, co jest
spowodowane dużą podażą towaru i umiarkowanym popytem – mówi
Wiesław Wilk. – Jak będą się
kształtowały ceny w dalszej części roku, oczywiście nie sposób
przewidzieć. Niezależnie jednak od tego, czy będą wzrosty czy spadki,
z pewnością będą one mniejsze niż w minionych latach, z uwagi na
konsolidację rynku, na którym zostało zaledwie czterech dostawców chipów.
Wiadomo na pewno, że moduły DDR4, które pojawiły się na
rynku pod koniec zeszłego roku, nie staną się jeszcze standardem w roku
2015. W najlepszym przypadku zaczną dominować pod koniec 2016, bo wtedy
– zdaniem producentów – będą kosztowały tyle samo co DDR3.
Z kolei ceny pamięci DDR4 nadal pozostaną wyższe od cen kości DDR3.
Chociaż będą stopniowo spadać (w tym roku ok. 30–35 proc.), to
zrównania się cen można oczekiwać najwcześniej w drugiej połowie
2016 r.
Resellerzy
z wieloletnim stażem wiedzą, że każda kolejna generacja pamięci potrzebuje
zwykle około dwóch lat na zdobycie połowy rynku. Nowe pamięci są drogie, bo
mało kto je kupuje, a mało kto je kupuje, bo są drogie… Producenci pamięci
czekają, aż zaczną się masowe dostawy płyt głównych z nowymi bankami,
natomiast dostawcy płyt głównych czekają, aż moduły nowej generacji będą
powszechnie dostępne.
W ostatnim czasie
odnotowano wzrost średniej ceny takich komponentów jak płyty główne
i karty graficzne. Zdaniem producentów jest to związane z rosnącym
zapotrzebowaniem na komputery
do gier. To kolejny przykład na to, że desktop żyje i ma się dobrze.
W zastosowaniach rozrywkowych oparł się konkurencji w postaci konsol,
a przecież kilka lat temu mówiono, że konsole staną się urządzeniami,
które przejmą rolę multimedialnego centrum domowej rozrywki.
– W przypadku
komputerów dla domowych użytkowników coraz popularniejsze stają się komponenty
przeznaczone dla graczy – mówi Marcin Piszczek, Country Product
Manager Team Leader w Asusie.
– Wiąże się to na pewno z coraz większą popularnością gamingu
w Polsce, co widać między innymi po frekwencji na imprezach typu PGA czy
Intel Extreme Masters.
To właśnie wzrost średniej ceny płyt głównych najlepiej
potwierdza opisane zjawisko.
– W zeszłym roku zaobserwowaliśmy bardzo duży
wzrost sprzedaży płyt w przedziale od 46 do 100 dol., który aktualnie
dominuje. Zainteresowanie indywidualnych odbiorców skupia się również na
produktach dla graczy, gdzie ceny niejednokrotnie przekraczają równowartość
120 dol.– twierdzi Michał
Siwek, Country Sales Manager w polskim przedstawicielstwie Gigabyte’a.
Oczywiście segment rynku, w którym najlepiej widać
wzrost zapotrzebowania na komputery do zadań rozrywkowych, to karty graficzne.
– Najważniejszym wydarzeniem w 2014 roku na
rynku kart graficznych była premiera rewolucyjnej architektury obliczeniowej
Maxwell, dzięki której najnowsze konstrukcje osiągają niespotykaną dotychczas
sprawność energetyczną, zapewniającą maksymalną wydajność przy umiarkowanym
poborze energii – mówi Paweł
Leśniorowski, przedstawiciel Nvidii.
Czy kartom graficznym może zaszkodzić rozwój interfejsów
graficznych zintegrowanych z procesorem? Zdania na ten temat są podzielone.
– W przypadku
procesorów APU z topowych serii wydajność zintegrowanych w nich kart
graficznych jest wyższa niż wielu zewnętrznych odpowiedników – twierdzi
Bruno Murzyn, PR Manager w polskim przedstawicielstwie AMD.
Zupełnie innego zdania są dostawcy kart graficznych. Według
nich na korzyść kart graficznych działa chociażby rosnący popyt na obsługę
rozdzielczości 4K.
Artykuł Ostatni taki rok pochodzi z serwisu CRN.
]]>