Artykuł Western Digital w centrum danych pochodzi z serwisu CRN.
]]>– Jesteśmy inną firmą aniżeli myślicie. Widzimy dla siebie miejsce w świecie gwałtownie ewoluujących danych, które niegdyś były jedynie zapisem transakcji, a dziś są walutą o rzeczywistej wartości – zapewniał Dave Tang, SVP Corporate Marketing and Communications w Western Digital.
Zdaniem koncernu koniunkturę na rozwiązania do przetwarzania oraz przechowywania danych napędzają dwa trendy: Big Data oraz Fast Data. Jednakże oba zjawiska nie są tożsame i wymagają zastosowania różnorodnych rozwiązań. Dave Tang do kategorii Big Data zaliczył narzędzia służące do analizy, prognoz oraz tworzenia formuł. Z kolei Fast Data wiąże się z przetwarzaniem danych w czasie rzeczywistym, mobilnością czy inteligentnymi maszynami. Western Digital szczególnie duże nadzieje wiąże z rozwojem Internetu Rzeczy. Tang przedstawił wyniki badań, z których wynika, że w 2030 r. wartość danych pochodzących z sensorów IoT wyniesie 3,6 bln dol.
Szybkie macierze i pamięci obiektowe
Najnowszym nabytkiem Western Digital jest Tegile Systems. Startup z Newark opracowuje macierze hybrydowe oraz all-flash bazujące na identycznej architekturze, zestawie funkcji oraz systemie operacyjnym. Analitycy szacują, że WD wyłożyło na zakup Tegile Systems około 900 mln. dol. W ciągu siedmiu lat działalności (2010-2017) startup pozyskał 1,7 tysięcy klientów, w tym Teslę, Ferrari czy McLaren’a. Niemal rok po akwizycji Western Digital przedstawił nowe macierze z rodziny IntelliFlash N Series, które zadebiutują na globalnym rynku jeszcze w tym roku. Systemy wykorzystują technologię Tegile Systems i obsługują bloki oraz pliki. Wśród prezentowanych w San Jose nowości znalazły się m.in modele N5200 oraz N5800 wyposażone wyłącznie w nośniki SSD NVMe.
Western Digital ma chrapkę nie tylko na rynek macierzy all flash, ale również pamięci obiektowej. W tym drugim przypadku atutem koncernu mają być systemy ActiveScale P100 i X100. Produkty pracują pod kontrolą systemu operacyjnego v5 ActiveScale OS, zapewniającego dostęp do plików i obiektów, replikację do chmury, wsparcie dla Dockera i mikrousług, a także dysków o pojemności 12 TB. Warto dodać, że ActiveScale X100 może przechowywać aż do 63 PB danych w dziewięciu szafach rack.
Wyspecjalizowane procesory
Western Digital w ostatnim czasie poważnie zaangażował się w opracowanie procesorów wykorzystujących otwartą architekturę RISC-V.
– Procesory są dla nas jedynie środkiem do osiągnięcia celu. Nie chcemy być w centrum tego biznesu i na nim zarabiać. Niemniej musimy być bliżej mikrochipów i danych. Zauważamy, że branża wykazuje rosnące zainteresowanie procesorami specjalizowanymi, dostrajanymi i optymalizowanymi pod kątem określonego zadania. W pewnym sensie są one podobne do niestandardowych układów ASIC, które są jednak zbyt szczegółowe i mają zbyt długie cykle rozwojowe. My chcemy być gdzieś pośrodku – tłumaczy Martin Fink, CTO Western Digital.
Warto dodać, że Western Digital jest członkiem fundacji RISC-V skupiającej około 100 członków, w tym takie firmy jak Samsung, Google czy Nvidia. Rozwój tej architektury wspiera też liczna społeczność składająca się z inżynierów i naukowców.
Podsumowując: koncern pokazał w San Jose kilka interesujących rozwiązań. Niemniej trzeba mieć na uwadze, że Western Digital nie jest głównym graczem w segmencie macierzy dyskowych i czeka go długa i niełatwa walka z liderami. Tak czy inaczej, jednym z kluczy do sukcesu będzie współpraca z kanałem sprzedaży. Jeśli szefowie koncernu chcą myśleć o sukcesie, nie mogą jej zaniedbać.
Artykuł Western Digital w centrum danych pochodzi z serwisu CRN.
]]>Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.
]]>
RISC – nic nie trwa wiecznie
We współczesnej informatyce oszczędności w części
infrastrukturalnej uzyskujemy na trzy różne sposoby:
– przez wymianę technologii droższych na tańsze,
– obniżając opłaty za wsparcie i utrzymanie,
– przez zwiększenie stopnia utylizacji posiadanych urządzeń.
Przez dekady na rynku
serwerów klasy RISC i mainframe panowało przekonanie, że hossa będzie
trwała wiecznie. Na pytanie, dlaczego producenci Unixów i mainframów biorą
więcej za swoje systemy, odpowiadano z przekąsem: „bo mogą”. Recesja
w latach 2001–2003 i potem kryzys w latach 2008–2009 pokazały,
że wspomniany trend to już historia. Producenci nie przespali tego okresu
– musieli się zaadaptować do nowej sytuacji. HP dawno już zrezygnowało z technologii
PA-RISC na rzecz procesorów Itanium. Z kolei Sun Microsystems przez lata
nie rozwijał SPARC-ów i wprowadzał oprócz rozwiązań Intela również
produkty konkurencyjnego AMD. W tym czasie IBM trzymał się twardo
technologii Power, przejmując od konkurencji coraz to większy udział
w rynku serwerów klasy RISC. Ale rynek coraz szybciej się kurczył i –
choć zdawało się, że to potrwa jeszcze chwilę – to w październiku 2014 r.
gruchnęła wieść: upubliczniono umowę z GlobalFoundries, na mocy której GF
przejmie obowiązki producenta, czyli rozwój platformy i produkcję na
następne 10 lat.
Wszystko to musiało się
wydarzyć, bo w sytuacji gdy budżety są stabilne a wymagania rosną,
firmom nie opłaca się płacić za serwery RISC i utrzymywać ich po okresie
gwarancji. Ten model jest zbyt kosztowny i mało elastyczny. Próby
uelastycznienia go, np. za pomocą wprowadzenia metody płacenia on demand, czyli
za rzeczywiste zużycie zasobów, nie dały oczekiwanych rezultatów.
Do takiego rozwoju wydarzeń znacząco przyczyniła się też
chmura obliczeniowa. Zorientowani na biznes decydenci, którym infrastruktura IT
z natury zawsze była obca, odetchnęli z ulgą, gdy dostawcy zaczęli
rozmawiać z nimi o funkcjach biznesowych, rysując przy tym ładne
chmurki. Tym samym przestali zatruwać miłą atmosferę smutnymi opowieściami
o gigabajtach, slotach, linkach i aktywnych rdzeniach.
Żeby jednak to wszystko
mogło się wydarzyć, musiał powstać procesor, który podoła wymaganiom
przeładowanej informacjami bazy danych, obciążonego żądaniami portalu czy też
„zasobożernej” Javy. Stał się nim Intel Xeon. Przez lata procesor ten był
traktowany trochę z pobłażaniem, jako starszy brat popularnego Pentium.
Ale producent uparcie wprowadzał nowe funkcjonalności typu Reliability,
Availability, Serviceability i systematycznie podnosił wydajność, co
sprawiało, że Xeon zyskiwał uznanie coraz szerszej rzeszy użytkowników. Powoli,
ale systematycznie klienci przekonywali się, że low-endowe serwery x86 są coraz
szybsze, coraz bardziej niezawodne i coraz tańsze, a producenci
oprogramowania, wprowadzając High Availability na swojej warstwie, udowodnili,
że płacenie za serwer RISC traci sens. Wymieniliśmy zatem RISC na Intela.
Oszczędziliśmy przy zakupie i na utrzymaniu, bo wyceny usług wsparcia
tańszych serwerów są również niższe. Sposób pierwszy i drugi na uzyskanie
oszczędności został z powodzeniem wykorzystany. Przyjrzymy się trzeciemu.
Kiedy w maju
1999 r. świat zobaczył VMware Workstation – pierwszy produkt do
wirtualizacji – sytuacja była daleka od idealnej. Serwery
o architekturze x86 wykorzystywano średnio w kilkunastu procentach.
Projektowe podejście do wdrażania nowych funkcji oraz trudności
w oszacowaniu ich docelowej wydajności potrzebnej dla coraz to nowszych
wersji oprogramowania też nie służyły rozwiązaniom opartym na infrastrukturze,
którą trzeba było kupić. Na końcu często okazywało się, że serwer pracuje na
ćwierć gwizdka albo jeszcze mniej wydajnie, a zwrotu sprzętu nikt nie
przyjmie. Dzisiaj, po kilkunastu latach, szacuje się, że wskaźnik wykorzystania
przeciętnego serwera x86 sięga (w zależności od badania)
ok. 50 proc.
Dlaczego mimo powszechnej wirtualizacji i sporego
wyboru hypervisorów (również bezpłatnych) nie osiągamy pełnej utylizacji?
Z tych samych powodów co zwykle. Polityka zakupów, podejście per projekt,
przeszacowanie zapotrzebowania na wydajność, rezerwacja miejsca na rozwój
systemu w przyszłości, alokowanie kosztów w różne budżety,
przesunięcie priorytetów z CAPEX na OPEX i za chwilę na odwrót, brak
elastyczności w organizacji itd. Mimo wszystko udało się jednak poprawić
współczynnik utylizacji CPU per serwer i nasze urządzenia pracują nie na
1/10, ale na pół gwizdka. Sposób trzeci wykorzystany. Oszczędności wydamy na
coraz to droższe smartfony, których nowe edycje różnią się głównie kolorem i…
celebrytą w telewizyjnej reklamie.
Obserwując statystyki
sprzedaży, można zobaczyć, że kilka lat temu powstał zupełnie nowy segment na
rynku serwerów, który analitycy nazwali high-end x86. W dodatku jest to
segment, który rośnie najszybciej. Słów kilka, skąd się wziął i po co.
Otóż nie można bezrefleksyjnie wyrzucić wszystkich RISC-ów z serwerowni
i bezkrytycznie przesiąść się na chmurę, nawet prywatną. Są rozwiązania,
które z trudem znoszą architekturę typu scale-out, czyli rośnięcie wszerz.
Dokładanie co chwilę nowego serwera jest, owszem, łatwe i przyjemne.
Jednak pojawianie się rozwiązań wymagających dużo pamięci RAM w obrębie
jednej maszyny (Big Data, BI) lub po prostu potrzeba posiadania ogromnych baz
danych (rosnących za sprawą coraz większej ilości gromadzonych informacji np.
w systemach klasy CRM lub ERP) spowodowało, że zatrzymaliśmy się
w pół kroku.
Pozostaje jeszcze kwestia
wysokiej dostępności. Rozwój rozwojem, ale z dużą dozą pewności powiedzieć
można, że serwery wykorzystujące układy Intela nigdy nie zapewnią takiego
poziomu High Availability jak np. IBM-owe maszyny typu Power. Powód jest
prosty: IBM, HP i Oracle kontrolują tzw. pełny stack, czyli serwer,
wirtualizator i system operacyjny. Tymczasem wysoka dostępność to
zagadnienie interdyscyplinarne. Wyłączenie uszkodzonego zasobu sprzętowego musi
być obsłużone przez hypervisor i – w zależności od konfiguracji –
widoczne i możliwe do obsłużenia lub całkowicie transparentne dla systemu
operacyjnego. Intel produkuje procesory dla wszystkich i wszyscy produkują
oprogramowanie współpracujące z ich architekturą. W tej sytuacji nie
można zakładać, że np. obsługiwana bez problemu w serwerach
z procesorami Power funkcja CPU-offline będzie działała bez problemów
z VMware, Hyper-V, Linuksem, Windows i setką innych rozwiązań
pracujących na Intelu. Zbliżamy się powoli do ideału, ale lista wyjątków będzie
rosła, a matryca kompatybilności staje się coraz bardziej skomplikowana.
Jest też kwestia wirtualizacji. Mimo wieloletnich wysiłków
i systematycznego wypuszczania nowych wersji najpopularniejszego
wirtualizatora firmy VMware, czyli vSphere, administratorzy PowerVM
(wirtualizator dla serwerów AIX) mogą w dalszym ciągu patrzeć
z pobłażaniem na swych kolegów z pokoju obok.
Wykorzystanie serwerów RISC jest nieporównywalnie większe
niż serwerów x86. Oczywiście jest to m.in. spowodowane ceną, bo nie tak łatwo
kupić nowy serwer lub urozbudowywać już posiadany z racji wysokich cen na
rynku komercyjnych Unixów. Wykorzystuje się więc to, co się ma, do samego
końca. Jest to jednak też pochodna architektury scale-up, czyli możliwości
wygodnego podziału jednej puli na mniejsze maszyny wirtualne, logiczne partycje
czy jak kto tam sobie w dziale marketingu to nazwał. Odpowiedź na pytanie,
czy wygodniej jest mieć jeden duży serwer i dzielić go przy pomocy jednego
hypervisora na mniejsze kawałki czy też mieć kilkaset serwerów, kilkaset
hypervisorów i dzielić te małe części na jeszcze mniejsze – jest
raczej oczywista.
Co zatem robić? Powrócić
do RISC-ów? Za drogo. Ten etap mamy już za sobą, choć są miejsca, gdzie jeszcze
przez lata będziemy widzieć na ekranach konsol znaczek AIX lub Solaris.
Historia odchodzących od 20 lat do lamusa mainframe’ów powtórzy się również w tym
przypadku. Powstało zatem rozwiązanie pośrednie. Oparte na procesorach Intel
z serii E7, wyposażone w możliwości RAS zbliżone do możliwości
serwerów RISC, oferujące gigantyczną wręcz wydajność w obrębie fizycznej
maszyny, dysponujące setkami rdzeni i terabajtami pamięci RAM, gotowe do
współpracy z wirtualizatorami i systemami operacyjnymi różnych marek.
Rozwiązanie w pewnym sensie niszowe, bo low-end x86 będzie dominował
w dalszym ciągu, ale obserwując wzrostowy trend i wartość tej niszy,
która w samej Europie szacowana jest na 700 mln dol., jestem dziwnie
spokojny, że będzie jeszcze okazja do porozmawiania na jego temat.
Benchmark najszybszego na świecie serwera x86 można
obejrzeć tutaj:
www.spec.org/cpu2006/results/res2014q4/cpu2006-20140929-31841.html. Serwer
w najbogatszej konfiguracji ma 240 rdzeni (skalowalny modułowo od min. 12
rdzeni w górę przy zachowaniu liniowego wzrostu wydajności), 24 TB
RAM i 56 slotów PCIe. Karty PCIe i RAM można wymieniać metodą hot
swap, a zaimplementowany mechanizm izolacji błędów sprawia, że za cenę
z intelowej półki mamy serwer zbliżony możliwościami do klasy RISC.
Pamiętacie o potrzebie oszczędzania na trzy sposoby? To właśnie ta
platforma jako jedyna daje szansę na skorzystanie z nich wszystkich jednocześnie.
Więcej
informacji:
www.bull.com/bullion
Jacek
Połczyński, Product Manager Storage & Servers,
jacek.polczynski@eptimo.com
Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.
]]>