Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/risc/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Thu, 12 Jul 2018 10:18:00 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Western Digital w centrum danych https://crn.sarota.dev/artykuly/western-digital-w-centrum-danych/ https://crn.sarota.dev/artykuly/western-digital-w-centrum-danych/#respond Thu, 12 Jul 2018 10:18:00 +0000 https://crn.pl/default/western-digital-w-centrum-danych/ Western Digital otwiera dwa nowe fronty walki. Producent nie zamierza być utożsamiany wyłącznie z dyskami czy magazynami danych dla gospodarstw domowych.

Artykuł Western Digital w centrum danych pochodzi z serwisu CRN.

]]>
W ostatnich latach Western Digital pozyskał trzech ważnych graczy z rynku pamięci masowych. W 2012 r. wchłonął Hitachi Global Storage Technologies (HGST), trzy lata później kupił  San Disk, a rok temu Tegile Systems. Szefowie koncernu doszli do wniosku, że właśnie nadszedł czas, aby uwolnić zgromadzony potencjał i przejść do ofensywy. W związku z tym podczas konferencji prasowej w San Jose przedstawiono nową linię produktów i ujawniono plany WD dotyczące ekspansji w segmencie rozwiązań dla centrów danych. 

– Jesteśmy inną firmą aniżeli myślicie. Widzimy dla siebie miejsce w świecie gwałtownie ewoluujących danych, które niegdyś były jedynie zapisem transakcji, a dziś są walutą o rzeczywistej wartości – zapewniał Dave Tang, SVP Corporate Marketing and Communications w Western Digital. 

Zdaniem koncernu koniunkturę na rozwiązania do przetwarzania oraz przechowywania danych napędzają dwa trendy: Big Data oraz Fast Data. Jednakże oba zjawiska nie są tożsame i wymagają zastosowania różnorodnych rozwiązań. Dave Tang do kategorii Big Data zaliczył narzędzia służące do analizy, prognoz oraz tworzenia formuł. Z kolei Fast Data wiąże się z przetwarzaniem danych w czasie rzeczywistym, mobilnością czy inteligentnymi maszynami. Western Digital szczególnie duże nadzieje wiąże z rozwojem Internetu Rzeczy. Tang przedstawił wyniki badań, z których wynika, że w 2030 r. wartość danych pochodzących z sensorów IoT wyniesie 3,6 bln dol. 

Szybkie macierze i pamięci obiektowe 

Najnowszym nabytkiem Western Digital jest Tegile Systems. Startup z Newark opracowuje  macierze hybrydowe oraz all-flash bazujące na identycznej architekturze, zestawie funkcji oraz systemie operacyjnym. Analitycy szacują, że WD wyłożyło na zakup Tegile Systems około 900 mln. dol. W ciągu siedmiu lat działalności (2010-2017) startup pozyskał 1,7 tysięcy klientów, w tym  Teslę, Ferrari czy McLaren’a. Niemal rok po akwizycji Western Digital przedstawił nowe macierze z rodziny IntelliFlash N Series, które zadebiutują na globalnym rynku jeszcze w tym roku. Systemy wykorzystują technologię Tegile Systems i obsługują bloki oraz pliki. Wśród prezentowanych w San Jose nowości znalazły się m.in  modele   N5200 oraz N5800  wyposażone wyłącznie w nośniki SSD NVMe. 

Western Digital ma chrapkę nie tylko na rynek macierzy all flash, ale również pamięci obiektowej. W tym drugim przypadku  atutem koncernu mają być systemy ActiveScale P100 i X100.  Produkty pracują pod kontrolą systemu operacyjnego v5 ActiveScale OS, zapewniającego dostęp do plików i obiektów, replikację do chmury, wsparcie dla Dockera i mikrousług, a także dysków o pojemności 12 TB. Warto dodać, że  ActiveScale X100 może przechowywać aż  do 63 PB danych w dziewięciu szafach rack. 

 

Wyspecjalizowane procesory

Western Digital w ostatnim czasie poważnie  zaangażował się w opracowanie procesorów wykorzystujących otwartą architekturę RISC-V.

– Procesory są dla nas jedynie środkiem do osiągnięcia celu. Nie chcemy być w centrum tego biznesu i na nim zarabiać. Niemniej musimy być bliżej mikrochipów i danych. Zauważamy, że branża wykazuje rosnące zainteresowanie procesorami specjalizowanymi, dostrajanymi i optymalizowanymi pod kątem określonego zadania. W pewnym sensie są one podobne do niestandardowych układów ASIC, które są jednak zbyt szczegółowe i mają zbyt długie cykle rozwojowe. My chcemy być gdzieś pośrodku – tłumaczy Martin Fink, CTO Western Digital.

Warto dodać, że Western Digital jest członkiem fundacji RISC-V skupiającej około 100 członków, w tym takie firmy jak Samsung, Google czy Nvidia. Rozwój tej architektury wspiera też liczna społeczność składająca się z inżynierów i naukowców. 

Podsumowując: koncern pokazał w San Jose kilka interesujących rozwiązań. Niemniej trzeba mieć na uwadze, że Western Digital nie jest głównym graczem w segmencie macierzy dyskowych i czeka go długa i niełatwa walka z liderami. Tak czy inaczej, jednym z kluczy do sukcesu będzie współpraca z kanałem sprzedaży. Jeśli szefowie koncernu chcą myśleć o sukcesie, nie mogą jej zaniedbać. 

 

Artykuł Western Digital w centrum danych pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/western-digital-w-centrum-danych/feed/ 0
Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce https://crn.sarota.dev/artykuly/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/ https://crn.sarota.dev/artykuly/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/#respond Mon, 30 Mar 2015 08:00:00 +0000 https://crn.pl/default/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/ Jak poradzić sobie z lawinowo rosnącymi wymaganiami wobec infrastruktury i oprogramowania? W jaki sposób w dorocznej ankiecie satysfakcji klientów osiągnąć pożądane wyniki? Wbrew pozorom nie jest to zadanie niewykonalne.

Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.

]]>
Przez kilka ostatnich lat
wyniki ankiet dotyczących wysokości budżetów na IT wyglądają mniej więcej
podobnie. Ponad połowa respondentów odpowiada, że środki, jakie mogą
przeznaczyć na szeroko rozumianą teleinformatykę, będą identyczne jak
w poprzednim roku lub niższe. A jeśli już budżet rośnie, to większość
nadwyżki ma zostać wydana na rozwiązania mobilne (Mobile Device Management,
Bring Your Own Device), usługi w chmurze obliczeniowej i na oprogramowanie.
Jednocześnie każdy dostawca usług i rozwiązań – nieważne, czy dla
wewnętrznych czy dla zewnętrznych odbiorców – bez wahania powie, że
oczekiwania klientów rosną, i to w stopniu nieproporcjonalnym do
posiadanych środków. Innymi słowy,
 rynek chciałby więcej za mniej.

 

RISC – nic nie trwa wiecznie

We współczesnej informatyce oszczędności w części
infrastrukturalnej uzyskujemy na trzy różne sposoby:

– przez wymianę technologii droższych na tańsze,

– obniżając opłaty za wsparcie i utrzymanie,

– przez zwiększenie stopnia utylizacji posiadanych urządzeń.

Przez dekady na rynku
serwerów klasy RISC i mainframe panowało przekonanie, że hossa będzie
trwała wiecznie. Na pytanie, dlaczego producenci Unixów i mainframów biorą
więcej za swoje systemy, odpowiadano z przekąsem: „bo mogą”. Recesja
w latach 2001–2003 i potem kryzys w latach 2008–2009 pokazały,
że wspomniany trend to już historia. Producenci nie przespali tego okresu
– musieli się zaadaptować do nowej sytuacji. HP dawno już zrezygnowało z technologii
PA-RISC na rzecz procesorów Itanium. Z kolei Sun Microsystems przez lata
nie rozwijał SPARC-ów i wprowadzał oprócz rozwiązań Intela również
produkty konkurencyjnego AMD. W tym czasie IBM trzymał się twardo
technologii Power, przejmując od konkurencji coraz to większy udział
w rynku serwerów klasy RISC. Ale rynek coraz szybciej się kurczył i –
choć zdawało się, że to potrwa jeszcze chwilę – to w październiku 2014 r.
gruchnęła wieść: upubliczniono umowę z GlobalFoundries, na mocy której GF
przejmie obowiązki producenta, czyli rozwój platformy i produkcję na
następne 10 lat.

 

Wszystko to musiało się
wydarzyć, bo w sytuacji gdy budżety są stabilne a wymagania rosną,
firmom nie opłaca się płacić za serwery RISC i utrzymywać ich po okresie
gwarancji. Ten model jest zbyt kosztowny i mało elastyczny. Próby
uelastycznienia go, np. za pomocą wprowadzenia metody płacenia on demand, czyli
za rzeczywiste zużycie zasobów, nie dały oczekiwanych rezultatów.

 

Chmura z Intelem zrobiły swoje

Do takiego rozwoju wydarzeń znacząco przyczyniła się też
chmura obliczeniowa. Zorientowani na biznes decydenci, którym infrastruktura IT
z natury zawsze była obca, odetchnęli z ulgą, gdy dostawcy zaczęli
rozmawiać z nimi o funkcjach biznesowych, rysując przy tym ładne
chmurki. Tym samym przestali zatruwać miłą atmosferę smutnymi opowieściami
o gigabajtach, slotach, linkach i aktywnych rdzeniach.

Żeby jednak to wszystko
mogło się wydarzyć, musiał powstać procesor, który podoła wymaganiom
przeładowanej informacjami bazy danych, obciążonego żądaniami portalu czy też
„zasobożernej” Javy. Stał się nim Intel Xeon. Przez lata procesor ten był
traktowany trochę z pobłażaniem, jako starszy brat popularnego Pentium.
Ale producent uparcie wprowadzał nowe funkcjonalności typu Reliability,
Availability, Serviceability i systematycznie podnosił wydajność, co
sprawiało, że Xeon zyskiwał uznanie coraz szerszej rzeszy użytkowników. Powoli,
ale systematycznie klienci przekonywali się, że low-endowe serwery x86 są coraz
szybsze, coraz bardziej niezawodne i coraz tańsze, a producenci
oprogramowania, wprowadzając High Availability na swojej warstwie, udowodnili,
że płacenie za serwer RISC traci sens. Wymieniliśmy zatem RISC na Intela.
Oszczędziliśmy przy zakupie i na utrzymaniu, bo wyceny usług wsparcia
tańszych serwerów są również niższe. Sposób pierwszy i drugi na uzyskanie
oszczędności został z powodzeniem wykorzystany. Przyjrzymy się trzeciemu.

 

x86 – dużo pary w gwizdek

Kiedy w maju
1999 r. świat zobaczył VMware Workstation – pierwszy produkt do
wirtualizacji – sytuacja była daleka od idealnej. Serwery
o architekturze x86 wykorzystywano średnio w kilkunastu procentach.
Projektowe podejście do wdrażania nowych funkcji oraz trudności
w oszacowaniu ich docelowej wydajności potrzebnej dla coraz to nowszych
wersji oprogramowania też nie służyły rozwiązaniom opartym na infrastrukturze,
którą trzeba było kupić. Na końcu często okazywało się, że serwer pracuje na
ćwierć gwizdka albo jeszcze mniej wydajnie, a zwrotu sprzętu nikt nie
przyjmie. Dzisiaj, po kilkunastu latach, szacuje się, że wskaźnik wykorzystania
przeciętnego serwera x86 sięga (w zależności od badania)
ok. 50 proc.

 

Dlaczego mimo powszechnej wirtualizacji i sporego
wyboru hypervisorów (również bezpłatnych) nie osiągamy pełnej utylizacji?
Z tych samych powodów co zwykle. Polityka zakupów, podejście per projekt,
przeszacowanie zapotrzebowania na wydajność, rezerwacja miejsca na rozwój
systemu w przyszłości, alokowanie kosztów w różne budżety,
przesunięcie priorytetów z CAPEX na OPEX i za chwilę na odwrót, brak
elastyczności w organizacji itd. Mimo wszystko udało się jednak poprawić
współczynnik utylizacji CPU per serwer i nasze urządzenia pracują nie na
1/10, ale na pół gwizdka. Sposób trzeci wykorzystany. Oszczędności wydamy na
coraz to droższe smartfony, których nowe edycje różnią się głównie kolorem i…
celebrytą w telewizyjnej reklamie.

 

Skąd wydajność i High Availability?

Obserwując statystyki
sprzedaży, można zobaczyć, że kilka lat temu powstał zupełnie nowy segment na
rynku serwerów, który analitycy nazwali high-end x86. W dodatku jest to
segment, który rośnie najszybciej. Słów kilka, skąd się wziął i po co.
Otóż nie można bezrefleksyjnie wyrzucić wszystkich RISC-ów z serwerowni
i bezkrytycznie przesiąść się na chmurę, nawet prywatną. Są rozwiązania,
które z trudem znoszą architekturę typu scale-out, czyli rośnięcie wszerz.
Dokładanie co chwilę nowego serwera jest, owszem, łatwe i przyjemne.
Jednak pojawianie się rozwiązań wymagających dużo pamięci RAM w obrębie
jednej maszyny (Big Data, BI) lub po prostu potrzeba posiadania ogromnych baz
danych (rosnących za sprawą coraz większej ilości gromadzonych informacji np.
w systemach klasy CRM lub ERP) spowodowało, że zatrzymaliśmy się
w pół kroku.

Pozostaje jeszcze kwestia
wysokiej dostępności. Rozwój rozwojem, ale z dużą dozą pewności powiedzieć
można, że serwery wykorzystujące układy Intela nigdy nie zapewnią takiego
poziomu High Availability jak np. IBM-owe maszyny typu Power. Powód jest
prosty: IBM, HP i Oracle kontrolują tzw. pełny stack, czyli serwer,
wirtualizator i system operacyjny. Tymczasem wysoka dostępność to
zagadnienie interdyscyplinarne. Wyłączenie uszkodzonego zasobu sprzętowego musi
być obsłużone przez hypervisor i – w zależności od konfiguracji –
widoczne i możliwe do obsłużenia lub całkowicie transparentne dla systemu
operacyjnego. Intel produkuje procesory dla wszystkich i wszyscy produkują
oprogramowanie współpracujące z ich architekturą. W tej sytuacji nie
można zakładać, że np. obsługiwana bez problemu w serwerach
z procesorami Power funkcja CPU-offline będzie działała bez problemów
z VMware, Hyper-V, Linuksem, Windows i setką innych rozwiązań
pracujących na Intelu. Zbliżamy się powoli do ideału, ale lista wyjątków będzie
rosła, a matryca kompatybilności staje się coraz bardziej skomplikowana.

 

Powrót do RISC? Jest lepszy sposób…

Jest też kwestia wirtualizacji. Mimo wieloletnich wysiłków
i systematycznego wypuszczania nowych wersji najpopularniejszego
wirtualizatora firmy VMware, czyli vSphere, administratorzy PowerVM
(wirtualizator dla serwerów AIX) mogą w dalszym ciągu patrzeć
z pobłażaniem na swych kolegów z pokoju obok.

 

Wykorzystanie serwerów RISC jest nieporównywalnie większe
niż serwerów x86. Oczywiście jest to m.in. spowodowane ceną, bo nie tak łatwo
kupić nowy serwer lub urozbudowywać już posiadany z racji wysokich cen na
rynku komercyjnych Unixów. Wykorzystuje się więc to, co się ma, do samego
końca. Jest to jednak też pochodna architektury scale-up, czyli możliwości
wygodnego podziału jednej puli na mniejsze maszyny wirtualne, logiczne partycje
czy jak kto tam sobie w dziale marketingu to nazwał. Odpowiedź na pytanie,
czy wygodniej jest mieć jeden duży serwer i dzielić go przy pomocy jednego
hypervisora na mniejsze kawałki czy też mieć kilkaset serwerów, kilkaset
hypervisorów i dzielić te małe części na jeszcze mniejsze – jest
raczej oczywista.

Co zatem robić? Powrócić
do RISC-ów? Za drogo. Ten etap mamy już za sobą, choć są miejsca, gdzie jeszcze
przez lata będziemy widzieć na ekranach konsol znaczek AIX lub Solaris.
Historia odchodzących od 20 lat do lamusa mainframe’ów powtórzy się również w tym
przypadku. Powstało zatem rozwiązanie pośrednie. Oparte na procesorach Intel
z serii E7, wyposażone w możliwości RAS zbliżone do możliwości
serwerów RISC, oferujące gigantyczną wręcz wydajność w obrębie fizycznej
maszyny, dysponujące setkami rdzeni i terabajtami pamięci RAM, gotowe do
współpracy z wirtualizatorami i systemami operacyjnymi różnych marek.
Rozwiązanie w pewnym sensie niszowe, bo low-end x86 będzie dominował
w dalszym ciągu, ale obserwując wzrostowy trend i wartość tej niszy,
która w samej Europie szacowana jest na 700 mln dol., jestem dziwnie
spokojny, że będzie jeszcze okazja do porozmawiania na jego temat.

Benchmark najszybszego na świecie serwera x86 można
obejrzeć tutaj:
www.spec.org/cpu2006/results/res2014q4/cpu2006-20140929-31841.html. Serwer
w najbogatszej konfiguracji ma 240 rdzeni (skalowalny modułowo od min. 12
rdzeni w górę przy zachowaniu liniowego wzrostu wydajności), 24 TB
RAM i 56 slotów PCIe. Karty PCIe i RAM można wymieniać metodą hot
swap, a zaimplementowany mechanizm izolacji błędów sprawia, że za cenę
z intelowej półki mamy serwer zbliżony możliwościami do klasy RISC.
Pamiętacie o potrzebie oszczędzania na trzy sposoby? To właśnie ta
platforma jako jedyna daje szansę na skorzystanie z nich wszystkich jednocześnie.

Więcej
informacji:

www.bull.com/bullion

Jacek
Połczyński, Product Manager Storage & Servers,

jacek.polczynski@eptimo.com

Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/feed/ 0