Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/eptimo-roadshow/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Mon, 01 Jun 2015 09:15:00 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Eptimo: roadshow z wartością dodaną https://crn.sarota.dev/artykuly/eptimo-roadshow-z-wartoscia-dodana/ https://crn.sarota.dev/artykuly/eptimo-roadshow-z-wartoscia-dodana/#respond Mon, 01 Jun 2015 09:15:00 +0000 https://crn.pl/default/eptimo-roadshow-z-wartoscia-dodana/ Pierwszy roadshow dystrybutora pod hasłem „Wyższa kultura rozwiązań cloud computing” dobiegł końca.

Artykuł Eptimo: roadshow z wartością dodaną pochodzi z serwisu CRN.

]]>
Wyraźnie widać, że zarząd Eptimo jest zdeterminowany, żeby
realizować strategię dystrybucji z wartością dodaną. Podczas wizyt
w pięciu największych polskich miastach Przemysław Kucharzewski, Chief
Operating Officer, przekonywał, że celem nowego dystrybutora jest czołowa pozycja
w segmencie VAD na polskim rynku. Prognozowana wielkość sprzedaży
w całym 2015 r. to 150 mln zł, z rosnącym udziałem
zaawansowanych rozwiązań.

– W przypadku broadlinerów towar jest tylko „part
numberem”, a naszym zdaniem dział handlowy powinien wiedzieć, co sprzedaje,
i tak właśnie jest w przypadku Eptimo –
podkreślał rozmówca CRN
Polska.

Obranej strategii
podporządkowany jest rozwój portfolio, na które składają się produkty sieciowe
i niszowe. Poza tym partnerzy dystrybutora mogą już korzystać z dwóch
centrów szkoleniowych (w Katowicach i Wrocławiu), w wakacje zaś
ma ruszyć kolejne, w Warszawie. Ponadto od kwietnia funkcjonuje nowy,
w pełni responsywny serwis B2B Eptimo (b2b.eptimo.com).

Zależy nam na tym, by nie stać w miejscu. Dlatego
zaraz po zakończeniu roadshow uruchomiliśmy nową platformę B2B dla naszych
klientów. Serwis jest dostępny nawet dla niezalogowanych użytkowników,
natomiast po rejestracji można szybko dokonywać zakupu wybranych produktów –

mówił Józef Szajter, CEO Eptimo.

 
Niestandardowa oferta

Podczas spotkań z resellerami oraz integratorami
dystrybutor zaprezentował ofertę kilku kluczowych dostawców, w tym paru
zupełnie nowych na polskim rynku. Na razie trzon tej części oferty, która ma
być realizowana w ramach dystrybucji z wartością dodaną, stanowią
m.in.: Legrand, Allied Telesis, ZTE, American Megatrends, Bull oraz Rhino. Do
końca bieżącego roku Eptimo zamierza podpisać co najmniej kilka kolejnych umów
dystrybucyjnych (najnowsza, z początku maja br., dotyczy sieciówki
MikroTik).

Tematyką roadshow był cloud computing, ale prezentacje
często wybiegały poza ten obszar technologiczny. Przykładem są zasilacze UPS
marki Legrand, które – jak twierdzą przedstawiciele producenta
– cieszą się ponad 20-proc. udziałem w całym światowym rynku (licząc
urządzenia dostarczane innym producentom).

– Stawiamy na sprzedaż
urządzeń, które są tańsze niż konkurencyjne pomimo tych samych parametrów. To
możliwe, bo wiele podzespołów powstaje w naszych fabrykach i nie
musimy ich kupować od zewnętrznych dostawców
– twierdzi Piotr Przepiórka, specjalista ds. rozwoju UPS-ów
w Legrandzie.

O przewadze, jaką dają własne fabryki, mówił też Tomasz
Odzioba, Country Manager Allied Telesis w Polsce, Ukrainie oraz krajach
bałtyckich. Japoński producent przełączników dysponuje dwoma zakładami
w Chinach oraz Singapurze. Przedstawiciel dostawcy omawiał m.in.
rozwiązanie AMF, opracowane początkowo na potrzeby Toshiby, a następnie
wprowadzone na światowy rynek. Umożliwia ono łatwiejsze zarządzanie siecią
o szczególnie skomplikowanej strukturze.

Zdaniem integratora

Maciej Sobkowiak, Product Manager, Talex

Zależało mi na zapoznaniu się z oferowanymi przez Eptimo
rozwiązaniami. Nowy dystrybutor z nowymi markami to ciekawa propozycja na
rynku. Interesujące prezentacje, merytoryczna formuła oraz odrobina rozrywki w
postaci skeczy kabaretowych… To było udane wydarzenie.

 

 

Uczestnicy roadshow poznali też nową strategię ZTE, do tej
pory aktywnego przede wszystkim w segmencie operatorów
telekomunikacyjnych. W efekcie 2–3 mln Polaków łączy się
z bezprzewodową siecią za pomocą modemów tej właśnie marki. Chiński
dostawca jest też liderem na polskim rynku wdrożeń FTTH. Jednak niedawno
zapadła decyzja, żeby znacznie większy nacisk położyć na sektor
przedsiębiorstw. Początkowo z ofertą sprzętu sieciowego (m.in. routerów
i przełączników), zaś w III kw. br. również z produktami storage’owymi.

Eptimo oferuje storage
już teraz, przy współpracy z American Megatrends – producentem
macierzy dyskowych marki StorTrends. Dystrybutor podkreśla, że amerykański
dostawca nie każe dopłacać klientom za dodatkowe funkcje ułatwiające
zarządzanie danymi. Kolejną ciekawą, nieszablonową marką w ofercie
dystrybutora jest Bull, producent superkomputerów i szybkich serwerów.
Jednym z głównych argumentów sprzedażowych ma być w tym przypadku
dobry poziom parametru TCO, dzięki szybkości, skalowalności i cenom
– podkreślali przedstawiciele producenta.

– Budżety na IT nie rosną, w przeciwieństwie do
wymagań użytkowników. W takiej sytuacji można dokonać optymalizacji
istniejącej infrastruktury lub przejść na bardziej wydajną technologię za
rozsądne pieniądze –
przekonywał Tomasz Pojda, Customer Service Manager
w firmie Bull.

Z kolei specjalista Rhino zachęcał do wejścia
w taki segment rynku jak telemetria. Systemy telemetryczne RhinoAMI są
jedynym tego typu rozwiązaniem przeznaczonym do sprzedaży w polskim kanale
dystrybucji IT. Dzięki nim można zoptymalizować zużycie energii elektrycznej,
wody, ciepła i gazu, co skutkuje zmniejszeniem kosztów dla ich
użytkownika.

Film z roadshow Eptimo jest dostępny pod adresem: youtu.be/ybAjinQaSBM

Artykuł Eptimo: roadshow z wartością dodaną pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/eptimo-roadshow-z-wartoscia-dodana/feed/ 0
Edimax Pro – sieci bezprzewodowe dla profesjonalistów https://crn.sarota.dev/artykuly/edimax-pro-2013-sieci-bezprzewodowe-dla-profesjonalistow/ https://crn.sarota.dev/artykuly/edimax-pro-2013-sieci-bezprzewodowe-dla-profesjonalistow/#respond Fri, 03 Apr 2015 08:00:00 +0000 https://crn.pl/default/edimax-pro-2013-sieci-bezprzewodowe-dla-profesjonalistow/ Urządzenia Edimax Pro służą do budowy wydajnej i niezawodnej infrastruktury sieci bezprzewodowych. Sprawdzają się w środowisku biurowym, salach konferencyjnych, hotelach lub kawiarniach, jak też w szkołach i placówkach ochrony zdrowia. Wszędzie tam, gdzie szybkość transmisji danych i ich bezpieczeństwo są priorytetowe.

Artykuł Edimax Pro – sieci bezprzewodowe dla profesjonalistów pochodzi z serwisu CRN.

]]>
Edimax Pro umożliwia
administratorom oraz instalatorom tworzenie profesjonalnych i do tego prostych
w budowie sieci bez sięgania po drogie systemy przeznaczone dla
największych korporacji. Dzięki temu są w stanie oszczędzić czas
i środki finansowe. Urządzenia z rodziny Edimax Pro są przystosowane
do wdrażania w środowiskach, gdzie pracuje od 50 do 200 użytkowników. Do
jednego punktu dostępowego w danym momencie może być podłączonych maks.
100 urządzeń. Zapewniają jednoczesną bezprzewodową transmisję danych
w najnowszym standardzie IEEE 802.11ac, w pasmach 2,4 oraz
5 GHz. Dzięki temu można uzyskać prędkość przesyłu danych odpowiednio do
450 i 1300 Mb/s (w zależności od pasma, w którym odbywa się
transmisja).

 

Niebanalny system zarządzania

Jednym
z najistotniejszych wymagań, które administratorzy stawiają rozbudowanym
systemom sieci bezprzewodowych, jest łatwość ich konfiguracji
i zarządzania nimi. Urządzeniami 
Edimax można zarządzać za pomocą unikalnego systemu  Network Management Suite. Zapewnia on wgląd
we wszystkie potrzebne informacje dotyczące statystyk ruchu, listy podłączonych
urządzeń itd. Z centralnej konsoli można zarządzać ustawieniami
uwierzytelniania RADIUS, parametrami grup użytkowników i zasadami dostępu
gości do infrastruktury sieciowej.

Nie tylko sieci
bezprzewodowe

Edimax oferuje nie tylko urządzenia do budowy sieci
bezprzewodowych. W portfolio tajwańskiej firmy znajdują się też
urządzenia do tworzenia infrastruktury sieci przewodowych (przełączniki i
konwertery sygnału), przełączniki KVM i kamery IP. Wiele z nich może być
zasilanych za pośrednictwem infrastruktury sieciowej (standard Power
over
Ethernet 802.3af/at). Edimax poleca też użytkownikom pełne portfolio
urządzeń
do budowy telewizji przemysłowej i monitoringu z użyciem kamer
sieciowych z
serii SMax.

 

Dzięki zastosowaniu systemu NMS każde urządzenie
z serii Edimax Pro może pełnić funkcję kontrolera i zarządzać
maksymalnie ośmioma innymi punktami dostępowymi. Eliminuje to konieczność
stosowania drogich kontrolerów zewnętrznych do zarządzania infrastrukturą
sieciową. Ponadto nawet podczas pracy urządzenia w trybie kontrolera
zachowywane są jego funkcje jako AP.

Punkty dostępowe Edimax
Pro zapewniają szybki roaming użytkowników. Rzecz polega na tym, że
bezprzewodowe połączenie, z którego korzystają, zostaje podtrzymane przy
wyjściu z zasięgu radiowego jednego punktu dostępowego i wejściu
w zasięg drugiego. Dzięki temu osoby korzystające z sieci bezprzewodowej
nie muszą w takiej sytuacji ponownie się do niej logować. Zresztą sam
zasięg stanowi wyróżnik tych punktów dostępowych. Dzięki wysokiej czułości
odbiornika urządzenia mobilne bez problemu uzyskują stabilne połączenie w całym
obszarze pracy AP.

 

Obsługa projektów oraz dożywotnia gwarancja

Urządzenia z serii Edimax Pro są objęte unikalną
dożywotnią gwarancją. Producent zapewnia wsparcie autoryzowanym instalatorom,
w ramach którego przeprowadzane są szkolenia, zapewniona jest bezpośrednia
obsługa gwarancji oraz specjalne warunki, dostosowane do realizowanych przez integratorów
projektów. Aby z nich w pełni skorzystać, wystarczy uzyskać
certyfikat autoryzowanego instalatora Edimax Pro.

Więcej
informacji:

Michał
Kwiatkowski, Senior Product Manager Networking,

michal.kwiatkowski@eptimo.com

Artykuł Edimax Pro – sieci bezprzewodowe dla profesjonalistów pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/edimax-pro-2013-sieci-bezprzewodowe-dla-profesjonalistow/feed/ 0
RhinoAMI – optymalna telemetria dla wymagających https://crn.sarota.dev/artykuly/rhinoami-2013-optymalna-telemetria-dla-wymagajacych/ https://crn.sarota.dev/artykuly/rhinoami-2013-optymalna-telemetria-dla-wymagajacych/#respond Thu, 02 Apr 2015 08:00:00 +0000 https://crn.pl/default/rhinoami-2013-optymalna-telemetria-dla-wymagajacych/ Systemy telemetryczne marki RhinoAMI (należącej do firmy Hicron Group) są jedynym tego typu rozwiązaniem przeznaczonym do sprzedaży w kanale dystrybucyjnym. Dzięki nim można zoptymalizować zużycie energii elektrycznej, wody, ciepła i gazu, co skutkuje zmniejszeniem kosztów.

Artykuł RhinoAMI – optymalna telemetria dla wymagających pochodzi z serwisu CRN.

]]>
System RhinoAMI
sprawdzi się zarówno jako narzędzie  dla
osób zarządzających halami w firmach logistycznych, obiektami handlowymi,
zakładami przemysłowymi, jak i budynkami administracji publicznej,
jednostkami samorządu terytorialnego, takimi jak szkoły i gminne
przedszkola, oraz nieruchomościami w spółdzielniach mieszkaniowych.
Wszędzie tam koszty energii elektrycznej to jedna z ważniejszych pozycji
w budżecie administratora budynku. W zależności od jego lokalizacji
oraz powierzchni mogą stanowić nawet jedną trzecią wszystkich wydatków.
Tymczasem właściciele i zarządcy nieruchomości często mają problem
z szybkim i bezbłędnym spisywaniem stanu liczników, zmniejszeniem
kosztów oświetlenia i ogrzewania budynku oraz precyzyjnym prognozowaniem
zużycia mediów.

Inteligentny system telemetryczny RhinoAMI powstał
w odpowiedzi na ich potrzeby. Dostarcza on pełnych informacji dotyczących
zużycia mediów. Ryzyko błędnych odczytów liczników wykluczone zostało dzięki
automatycznemu, jednoczesnemu pobieraniu i przesyłaniu informacji drogą
radiową. Podejmowane przez administratora budynku świadome działania w tym
obszarze skutkują zmniejszeniem kosztów zużycia energii nawet o około
15 proc.

Rozwiązanie jest bardzo
proste w budowie i składa się z trzech elementów: radiowego
modułu, który zbiera dane z liczników, kolektora tychże danych
przekazującego je do centralnej bazy za pomocą sieci GSM lub Internetu, jak
również aplikacji umożliwiającej zdalne śledzenie na bieżąco poziomu zużycia
poszczególnych mediów.

 

Pomiary ułatwiają prognozowanie

System RhinoAMI daje administratorom budynków szereg
możliwości, które sprzyjają efektywniejszemu zarządzaniu. Jedną z nich
jest prognozowanie zużycia w danym miesiącu czy kwartale, co ułatwia
negocjacje cen z dostawcami. Zarządca budynku może też wystawiać rachunki
za media, bazując na ich rzeczywistym zużyciu, a nie na podstawie mało
precyzyjnych prognoz.

 

Komponenty systemu RhinoAMI

Rozwiązanie RhinoAMI
(Advanced Metering Infrastructure) ma topologię zbliżoną do sieci Wi-Fi.
Głównym elementem jest radiowy moduł telemetryczny RhinoAMI ED zbierający
informacje z liczników lub czujników mierzących dowolne wielkości fizyczne
i przesyłający je do punktu dostępowego (AP) przez sieć GSM lub Ethernet
i – za jego pośrednictwem – na serwer. W sieci można
stosować też wzmacniacze sygnału radiowego RhinoAMI RE, jeśli pomiędzy
urządzeniem nadawczym i odbiorczym jest duża odległość lub występują zakłócenia.
Do dyspozycji użytkowników oddano też aplikację służącą do analizy
i raportowania danych pomiarowych z opcją eksportowania do dowolnego
zewnętrznego systemu przez interfejs programistyczny API lub do plików XLS
i CSV.

Rozwiązanie charakteryzuje się prostym w obsłudze
interfejsem. Umożliwia m.in. porównanie pomiarów z poprzednich okresów
rozliczeniowych i ich wizualizację oraz prezentowanie wykresów z informacjami
na temat bieżącego i historycznego zużycia mediów. Kolejną funkcją
oferowaną przez system RhinoAMI jest Benchmark, czyli porównywanie poziomu
zużycia w danym okresie między poszczególnymi obiektami. W ten sposób
można np. wykrywać awarie liczników czy ujawniać korzystanie z nich
w niewłaściwy sposób.

Dashboard to aplikacja do prezentowania danych
o rzeczywistym zużyciu mediów na urządzeniu podłączonym do systemu
RhinoAMI. Daje możliwość systematycznej kontroli i wglądu w okresowe
raporty, które ułatwiają optymalne zarządzanie konsumpcją mediów. Dodatkowo
system zapewnia użytkownikom alarmy (automatyczne powiadomienia wyświetlane na
ekranie komputera lub przesyłane SMS-em oraz pocztą elektroniczną), informujące
o wystąpieniu awarii lub przekroczeniu przewidzianego zużycia zakupionych
mediów.

Na polskim rynku
dystrybutorem z wartością dodaną rozwiązań marki RhinoAMI jest Eptimo.
Wraz z ich producentem – Hicron
Group – oferuje pełne wsparcie techniczne oraz serwisowe.

Więcej
informacji:

Sebastian
Janowski, Product Manager UPS, M2M,

sebastian.janowski@eptimo.com

Artykuł RhinoAMI – optymalna telemetria dla wymagających pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/rhinoami-2013-optymalna-telemetria-dla-wymagajacych/feed/ 0
Rozwiązania sieciowe ZTE dla chmur obliczeniowych https://crn.sarota.dev/artykuly/rozwiazania-sieciowe-zte-dla-chmur-obliczeniowych/ https://crn.sarota.dev/artykuly/rozwiazania-sieciowe-zte-dla-chmur-obliczeniowych/#respond Wed, 01 Apr 2015 08:00:00 +0000 https://crn.pl/default/rozwiazania-sieciowe-zte-dla-chmur-obliczeniowych/ Firma ZTE uważnie śledzi trendy na rynku rozwiązań dla centrów danych. Jej produkty spełniają najbardziej rygorystyczne wymagania klientów, dotyczące nie tylko wydajności i funkcjonalności, ale także energooszczędności oraz możliwości bardzo szybkiego wdrażania.

Artykuł Rozwiązania sieciowe ZTE dla chmur obliczeniowych pochodzi z serwisu CRN.

]]>
Rozwój Internetu
i świadczonych w nim usług w modelu cloud computing wymusił
intensywną konsolidację. Towarzyszy jej zwiększenie gęstości podstawowych
zasobów centrum danych – mocy obliczeniowej w serwerach
i pamięciach masowych.

Stopień tych zmian
najłatwiej można zobrazować, prezentując wyniki poboru energii elektrycznej w
centrum danych. Jeszcze do niedawna sprzęt w typowej szafie przemysłowej
pobierał ok. 2–3 kW. Wprowadzenie wirtualizacji serwerów
i desktopów bardzo szybko podniosło tę wartość do 10 kW,
a nierzadko można też spotkać szafy z urządzeniami pobierającymi aż
18 kW. W takiej sytuacji konieczne jest wprowadzenie zmian
w architekturze całego centrum danych. Dotyczy to fizycznego rozlokowania
szaf, stabilnego zasilania i klimatyzacji oraz odpowiedniej infrastruktury
sieciowej, która udźwignie tak skondensowaną ilość przesyłanych informacji.

Jednym z ważniejszych parametrów opisujących zainstalowany w
centrum danych sprzęt jest współczynnik PUE (Power Usage Effectiveness), który
stał się de facto standardem mierzenia efektywności energetycznej. PUE jest
stosunkiem całkowitej energii dostarczanej do centrum danych do energii
wykorzystywanej przez sprzęt IT (serwery, pamięci masowe i sieć komputerową).
Idealną, choć praktycznie nieosiągalną wartością PUE jest 1 – w takim przypadku
cała dostarczona energia jest zużywana przez sprzęt IT. Jednak część
dostarczonej energii musi być zużyta przez system chłodzenia, zasilania
gwarantowanego, oświetlenia i inne rozwiązania wspomagające infrastrukturę
centrum danych. Typową wartością PUE dla tradycyjnego centrum danych jest 2,
ale ośrodki korzystające z najnowszych rozwiązań są już bardziej efektywne i
mają PUE o wartości znacznie poniżej 2.

Cezary Terepka

Channel Sales Manager, ZTE Poland

Rozpoczęliśmy
współpracę z Eptimo w odpowiedzi na zachodzące zmiany na rynku IT, na
którym obecnie klienci szukają zaawansowanych technologicznie produktów
w atrakcyjnych cenach i dystrybutorów potrafiących dzielić się
z nimi wiedzą. Firma Eptimo od początku istnienia jasno komunikowała
właśnie te wartości – wierzymy, że nasza współpraca będzie owocna.

 

Problemem staje się też
czas, który należy poświęcić na budowę całego centrum danych lub jego dużą
modernizację. Wymagany przez działy biznesowe firmy czas oczekiwania na nowe
zasoby jest znacznie krótszy niż ten potrzebny na kupno nowych rozwiązań,
wdrożenie ich, przetestowanie i zastosowanie w fazie produkcyjnej.

Aby
rozwiązać problem, wiele firm eksperymentuje z całkowicie nowymi sposobami
przechowywania i porządkowania zasobów centrum danych. Google korzysta
z modelu kontenerowego, gdzie do centralnej infrastruktury energetycznej
i sieciowej podłączone są kontenery (te dobrze znane z transportu
towarów). Są po brzegi wypełnione serwerami i pamięciami masowymi,
odgrywając  w całej architekturze
taką funkcję jak pojedyncza szafa przemysłowa w tradycyjnym centrum
danych. Dzięki ujednoliceniu standardu wyposażenia kontenerów, dołożenie dużej
ilości nowych zasobów trwa kilkakrotnie krócej niż w przypadku tradycyjnych
rozwiązań.

 

Przełączniki dla sieci kampusowej i centrum danych

Rozwiązania dla sieci kampusowych stanowią trzon oferty ZTE
– to aż dziesięć modeli, różniących się od siebie wydajnością
i funkcjonalnością. Dostępne są trzy modele z portami Fast Ethernet
(2900E, 3900 A i 3900E), cztery gigabitowe (5250, 5900, 5900E
i 5950-H) i trzy z interfejsem 10 GbE (5960, 8900 i 8900E).

Urządzenia z literą „E” w nazwie modelu (Easy
Maintenance) dodatkowo wyposażono w opatentowane przez ZTE funkcje
ułatwiające zarządzanie przełącznikami. Po wciśnięciu na obudowie danego
przełącznika przycisku Mode Switching Button (M-button) administrator sieci
natychmiast otrzymuje komplet potrzebnych mu informacji: poziom wykorzystania
pamięci i mocy procesora, przepustowość przy wysyłaniu i odbieraniu
danych, informację o ewentualnych zablokowanych portach w topologii
pierścienia. Bieżąca kontrola obejmuje także: stan pracy poszczególnych portów,
wiadomość o fakcie i miejscu występowania burzy broadcastowej
(broadcast storm), informację, czy danemu portowi przypisany został adres MAC
karty sieciowej użytkownika itd. Mogą być także wyświetlone błędy CRC, które
wskazują na ewentualną nieprawidłową pracę łącza światłowodowego lub
miedzianego.

Ponadto modele 59×0
i 8900 są przełącznikami wielowarstwowymi, które obok tradycyjnego
przełączania w warstwie drugiej wytyczają także trasę dla pakietów
w sieci (routing w warstwie trzeciej). Urządzenia 8900 i 8900E
to typowe przełączniki o najwyższej możliwej wydajności agregujące ruch
z całej sieci.

Wybrani partnerzy i wdrożenia rozwiązań ZTE na świecie

• ZESCO – największy producent energii w
Zambii

• TEO (Lietuvos Telekomas) – największy
operator telekomunikacyjny na Litwie

• Telecom Italia Group – piąty pod względem
wielkości, międzynarodowy operator telekomunikacyjny w Europie

• Projekt sieci ONT w chińskim
przedsiębiorstwie State Grid Corporation of China

• FibreCo – Narodowa Sieć Szerokopasmowa w
Afryce Południowej

• Projekt wspomagania dystrybucji środków
farmaceutycznych dla Ministerstwa Zdrowia w Wenezueli

• System bezpieczeństwa miejskiego w
Marsylii, Francja

 

 

ZTE klasyfikuje
przełączniki z serii 5960 i 8900E jako idealne do obsługi
infrastruktury sieciowej w centrach danych. Mają one interfejs 10 GbE
i zapewniają wielowarstwowe przełączanie. Wart polecenia jest także
przełącznik BigMatrix 9900, który jako jedyny obecnie w ofercie ZTE
wyposażono interfejsy 10, 40 i 100 GbE.

 

Przełączniki  dla
małych i średnich firm

ZTE ma także
w portfolio rodzinę inteligentnych przełączników ZXR10 1000 dla małych
i średnich przedsiębiorstw. Dostępnych jest osiem modeli niezarządzalnych
oznaczonych symbolem 1150 (Fast Ethernet) i 1160 (Gigabit Ethernet),
w wersjach z 5, 8, 16 i 24 portami.

W portfolio
znajdują się też cztery gigabitowe modele zarządzane przez przeglądarkę
internetową, oznaczone symbolem 1660, które można wyposażyć nie tylko
w miedziany, ale także optyczny interfejs.

Najbardziej zaawansowany
z nich (1660–24PC) umożliwia zasilanie podłączonych urządzeń
– o mocy maks. 30 W – w ramach standardu Power over
Ethernet (PoE). Pozwala też na przypisanie do oddzielnej sieci wirtualnej VLAN
urządzeń odpowiedzialnych za przesyłanie głosu i obrazu oraz przyznanie
jej najwyższego priorytetu w ramach polityki Quality of Service.

 

ZTE w Polsce i na świecie

Firma
ZTE działa na polskim rynku już prawie 10 lat. W tym czasie producent
z powodzeniem realizował duże projekty, takie jak CDMA dla sieci
Polkomtel, „Livebox” dla Orange czy DWDM dla Aero2. ZTE Poland to lider
sprzedaży produktów wykorzystywanych do budowy sieci FTTH na całym świecie.
Przez ostatnie dwa lata z użyciem sprzętu ZTE zostało zrealizowanych ponad
trzydzieści projektów GPON w Polsce.

Globalnie ZTE zatrudnia 70
tys. pracowników w 160 krajach. Jest właścicielem 19 ośrodków R&D
i zarejestrowało 17 tys. patentów (w latach 2011–2012 ZTE zgłosiło
najwięcej wniosków patentowych na świecie, a w 2013 r. zajęło
drugą pozycję w tym rankingu). Producent rozwija i wdraża szereg
innowacyjnych projektów technologicznych obejmujących takie dziedziny jak:
inteligentne miasta (smart cities), inteligentny transport (smart
transportation), e-zdrowie, mobilne płatności.

Przemysław Kucharzewski

Chief Operating Officer, Eptimo

Eptimo
podpisało umowę dystrybucyjną z ZTE pod koniec 2014 r. W naszej
ofercie znalazły się produkty biznesowe, od najprostszych rozwiązań biurowych
po urządzenia wykorzystywane przy projektach większych sieci
teleinformatycznych. W pierwszym kwartale 2015 r. wprowadziliśmy do
oferty przełączniki oraz szerokie portfolio urządzeń sieciowych
i biurowych, m.in. routerów, transmiterów sieciowych, modemów
bezprzewodowych oraz rozwiązań do zunifikowanej komunikacji, w tym
zestawów do wideokonferencji i telefonii IP.

Więcej
informacji:

Michał
Kwiatkowski, Senior Product Manager Networking,

michal.kwiatkowski@eptimo.com

Artykuł Rozwiązania sieciowe ZTE dla chmur obliczeniowych pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/rozwiazania-sieciowe-zte-dla-chmur-obliczeniowych/feed/ 0
Gwarantowane zasilanie zapewnia ciągłość biznesu https://crn.sarota.dev/artykuly/gwarantowane-zasilanie-zapewnia-ciaglosc-biznesu/ https://crn.sarota.dev/artykuly/gwarantowane-zasilanie-zapewnia-ciaglosc-biznesu/#respond Tue, 31 Mar 2015 08:00:00 +0000 https://crn.pl/default/gwarantowane-zasilanie-zapewnia-ciaglosc-biznesu/ Legrand, znany na całym świecie dostawca osprzętu elektrycznego, ma także bogate portfolio zasilaczy awaryjnych UPS. Zastosowane w nich innowacyjne rozwiązania gwarantują ciągłość dostępu do usług, w tym świadczonych przez Internet.

Artykuł Gwarantowane zasilanie zapewnia ciągłość biznesu pochodzi z serwisu CRN.

]]>
Nieprzerwane
świadczenie usług to priorytet z punktu widzenia firm, dla których
stanowią one podstawę działalności. W tym celu potrzebują niezawodnej
infrastruktury – zarówno w warstwie serwerowej i sieciowej, jak
też zasilania i klimatyzacji. Urządzenia Legrand idealnie spełniają te
wymagania. Producent oferuje trzy rodzaje zasilaczy UPS: modułowe,
konwencjonalne i line interactive, zapewniając przy tym należące do
najlepszych na świecie ogniwa bateryjne o czasie życia przedłużonym
o 50 proc. dzięki innowacyjnemu systemowi ładowania.

Zaletą produktów
francuskiej marki jest też bardzo wysokiej jakości elektronika kontrolująca
pracę zasilaczy. Urządzenia są w stanie osiągnąć efektywność na poziomie
95 proc., co prowadzi do znaczącej oszczędności energii.

 

Zasilacze modułowe

Zaletą zasilaczy modułowych Legrand jest prostota
serwisowania. Specjalista może się dostać do podzespołów od przodu urządzenia
za pomocą jednego narzędzia. W przypadku awarii jednego z modułów
redundancja zapewnia nieprzerwaną ciągłość zasilania. Usuwanie usterek
i wymiana baterii może odbywać się bez przerywania działania sprzętu przy
użyciu niewielkiego zestawu części zamiennych. Rozdział mocy odbywa się dzięki
równoległej pracy modułów na każdej z faz.

ARCHIMOD jest zasilaczem o mocy od 20 do
120 kVA, umieszczonym w szafie przemysłowej. Został zaprojektowany
tak, aby uprościć i przyspieszyć procesy projektowania oraz montażu
w obiektach, w których zostanie zastosowany.

TRIMOD to modułowy zasilacz o mocy od 10 do
60 kVA, mający  stosunkowo
niewielkie wymiary. Konstrukcja umożliwia łączenie pojedynczych modułów
w celu uzyskania żądanej konfiguracji wejścia/wyjścia jedno-
i trójfazowego.

Zasilacze MEGALINE
są instalowane w szafach pojedynczych oraz przemysłowych i zapewniają
moc od 1,25 do 5 kVA. Można w nich umieścić maksymalnie cztery moduły
mocy i cztery zestawy bateryjne. Dodatkowe baterie montowane są
w łatwo przyłączalnych specjalnych szafach. Serię MEGALINE uzupełniają
produkty składające się z dwóch szaf: w jednej można umieścić maks.
osiem modułów mocy (1250 VA każdy, co daje w sumie 10 kVA),
a w drugiej maks. dziesięć zestawów bateryjnych oraz ładowarkę.

Sebastian Janowski

Product Manager UPS, M2M, Eptimo

UPS-y
firmy Legrand, zainstalowane w kilku szafach przemysłowych, mogą być zarządzane
z centralnego punktu. Zapewniają wysoki poziom bezpieczeństwa, doskonałą jakość
napięcia zasilającego oraz baterie hot-swap. Rozwiązania te charakteryzuje
doskonały stosunek jakości do ceny.

 
Zasilacze konwencjonalne

Oferowane przez Legrand konwencjonalne zasilacze UPS
o mocach do 10 kVA gwarantują bezpieczne i niezawodne zasilanie
precyzyjne. Czytelny wyświetlacz umożliwia intuicyjne zarządzanie sprzętem, aby
użytkownik nie miał problemu z wyborem najlepszych parametrów związanych
z przetwarzaniem energii i wydajnością. Wszystkie urządzenia są
dostępne w wersji wieżowej i do montażu w szafie przemysłowej.

DAKER DK to zasilacz on-line o podwójnej
konwersji. Dostępny w trzech standardowych rozmiarach o mocy od
1 do 10 kVA. W zależności od wymaganej mocy i czasu
podtrzymania dostępne są zasilacze oraz panele bateryjne o wymiarach od 2U
do 4U.

Zasilacz WHAD o podwójnej konwersji jest idealny
do stosowania w instalacjach o małej i średniej wielkości.
Dzięki kompaktowej konstrukcji UPS WHAD zajmuje bardzo mało miejsca. Zapewnia
zasilanie o mocy od 0,8 do 6 kVA.

Zmniejszone wymiary zasilaczy DHEA (głębokość
185 mm)ułatwiają umieszczenie ich w niewielkich przestrzeniach.
Standardowe elementy i możliwość szybkiego ich przyłączenia pozwalają na
montaż zasilacza UPS przez osoby bez specjalnych szkoleń. Ponadto istnieje
możliwość wymiany baterii bez konieczności wyłączania zasilania. Oferowany
zakres mocy to 1–1,5 kVA.

 

Zasilacze line interactive

Zasilacze UPS line
interactive dzięki niewielkim wymiarom mogą być wykorzystywane do zasilania
stacji roboczych PC oraz innych urządzeń biurowych, jak drukarki czy skanery.
Wyposażone w elektroniczny stabilizator, diody sygnalizujące oraz
zabezpieczenie linii telefonicznej, zapewniają całkowitą ochronę podłączonych
urządzeń.

Zasilacz NIKY to
optymalne rozwiązanie z zakresu bezpieczeństwa danych przechowywanych
w małej firmie lub na komputerze domowym. Zaopatrzony jest
w mikroprocesor, wbudowany regulator napięcia i interfejs
komunikacyjny. Oferowany zakres mocy: od 0,6 do 1,5 kVA.

Natomiast NIKY S to zasilacz z napięciem
wyjściowym sinusoidalnym. Wyświetlacz i diody sygnalizacyjne pozwalają na
monitorowanie pracy zasilacza w czasie rzeczywistym. Oferowany zakres
mocy: od 1 do 3 kVA.




Piotr Piepiórka

specjalista ds. rozwoju biznesu UPS, Legrand

Cechą szczególną zasilaczy
modułowych ARCHIMOD jest odporność na każdy pojedynczy krytyczny punkt awarii.

 

 
Zarządzanie zasilaczami

Zasilacze same
z siebie nie są w stanie zapewnić stuprocentowej ochrony urządzeń do
nich podłączonych. Składa się na to wiele czynników: baterie ulegają powolnej
degradacji, nieprawidłowa praca dołączonych urządzeń może spowodować
niestabilną pracę zasilacza, a często też dochodzi do błędów ludzkich związanych
z obsługą serwisową. Dlatego konieczne jest sprawowanie stałej kontroli
nad infrastrukturą posiadanych przez firmę zasilaczy awaryjnych.

Legrand zapewnia dwa sposoby sprawowania nadzoru nad swoimi
zasilaczami. W pierwszym nadzór nad stanem UPS-a sprawuje oprogramowanie
zainstalowane na stacji roboczej lub serwerze, do których bezpośrednio
podłączony jest zasilacz. Druga metoda uwzględnia komunikację przez sieć
lokalną lub Internet – dzięki temu przestaje mieć znaczenie odległość od
UPS-a do stacji, z której sprawuje się nadzór.

Producent udostępnia cztery pakiety oprogramowania
zarządzającego do swoich zasilaczy UPS:

• UPS
Communicator
– grupa aplikacji umożliwiających ciągłe monitorowanie
pracy UPS-a i ochronę systemu operacyjnego (wyłączenie, uruchomienie
konkretnej aplikacji, wysłanie e-maila itp.) w przypadku przejścia
w tryb zasilania bateryjnego. Dane przesyłane są przez port RS232.
Oprogramowanie UPS Communicator można pobrać bezpłatnie ze strony
www.ups.legrand.com w wersji dla systemu Windows i Linux.

• UPS Management Software – rozbudowana, płatna
wersja pakietu UPS Communicator. Dostępna nie tylko dla platformy x86, ale
także na procesory Alpha i Itanium oraz dla systemów Linux, Unix, Novell
Netware i Mac OS X 10.x. Zawiera jedną licencję oprogramowania UPS RCCMD.

• UPS RCCMD – oprogramowanie, które umożliwia zasilaczom
przesyłanie na komputer poprzez protokół TCP/IP komend wymuszających zamknięcie
systemu operacyjnego, wyświetlenie komunikatu czy uruchomienie określonej
aplikacji. Możliwe jest definiowanie zachowań warunkowych, np. rozpoczęcie
zamykania systemu tylko wtedy, gdy taki sygnał przyjdzie z minimum dwóch
zasilaczy. Oprogramowanie jest kompatybilne z 99 proc. systemów
operacyjnych dostępnych na rynku (włącznie z AS/400 i rozwiązaniami
wirtualizacyjnymi), a także działa na różnych platformach procesorowych,
m.in. Intel, PowerPC, Alpha.

• UPS UNMS (UPS
Network Management System) –

aplikacja dostępna przez interfejs web, pobierająca dane z zasilaczy
poprzez protokół TCP/IP. Jest w stanie kontrolować urządzenia znajdujące się
w różnych lokalizacjach. W przypadku wystąpienia problemu
w jednym z monitorowanych zasilaczy system może wyświetlić komunikat,
wysłać e-mail lub uruchomić wskazaną aplikację. Podstawowa wersja UPS UNMS jest
bezpłatna i umożliwia kontrolę do dziewięciu zasilaczy.

Więcej
informacji:

Sebastian
Janowski, Product Manager UPS, M2M,

sebastian.janowski@eptimo.com

Artykuł Gwarantowane zasilanie zapewnia ciągłość biznesu pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/gwarantowane-zasilanie-zapewnia-ciaglosc-biznesu/feed/ 0
Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce https://crn.sarota.dev/artykuly/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/ https://crn.sarota.dev/artykuly/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/#respond Mon, 30 Mar 2015 08:00:00 +0000 https://crn.pl/default/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/ Jak poradzić sobie z lawinowo rosnącymi wymaganiami wobec infrastruktury i oprogramowania? W jaki sposób w dorocznej ankiecie satysfakcji klientów osiągnąć pożądane wyniki? Wbrew pozorom nie jest to zadanie niewykonalne.

Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.

]]>
Przez kilka ostatnich lat
wyniki ankiet dotyczących wysokości budżetów na IT wyglądają mniej więcej
podobnie. Ponad połowa respondentów odpowiada, że środki, jakie mogą
przeznaczyć na szeroko rozumianą teleinformatykę, będą identyczne jak
w poprzednim roku lub niższe. A jeśli już budżet rośnie, to większość
nadwyżki ma zostać wydana na rozwiązania mobilne (Mobile Device Management,
Bring Your Own Device), usługi w chmurze obliczeniowej i na oprogramowanie.
Jednocześnie każdy dostawca usług i rozwiązań – nieważne, czy dla
wewnętrznych czy dla zewnętrznych odbiorców – bez wahania powie, że
oczekiwania klientów rosną, i to w stopniu nieproporcjonalnym do
posiadanych środków. Innymi słowy,
 rynek chciałby więcej za mniej.

 

RISC – nic nie trwa wiecznie

We współczesnej informatyce oszczędności w części
infrastrukturalnej uzyskujemy na trzy różne sposoby:

– przez wymianę technologii droższych na tańsze,

– obniżając opłaty za wsparcie i utrzymanie,

– przez zwiększenie stopnia utylizacji posiadanych urządzeń.

Przez dekady na rynku
serwerów klasy RISC i mainframe panowało przekonanie, że hossa będzie
trwała wiecznie. Na pytanie, dlaczego producenci Unixów i mainframów biorą
więcej za swoje systemy, odpowiadano z przekąsem: „bo mogą”. Recesja
w latach 2001–2003 i potem kryzys w latach 2008–2009 pokazały,
że wspomniany trend to już historia. Producenci nie przespali tego okresu
– musieli się zaadaptować do nowej sytuacji. HP dawno już zrezygnowało z technologii
PA-RISC na rzecz procesorów Itanium. Z kolei Sun Microsystems przez lata
nie rozwijał SPARC-ów i wprowadzał oprócz rozwiązań Intela również
produkty konkurencyjnego AMD. W tym czasie IBM trzymał się twardo
technologii Power, przejmując od konkurencji coraz to większy udział
w rynku serwerów klasy RISC. Ale rynek coraz szybciej się kurczył i –
choć zdawało się, że to potrwa jeszcze chwilę – to w październiku 2014 r.
gruchnęła wieść: upubliczniono umowę z GlobalFoundries, na mocy której GF
przejmie obowiązki producenta, czyli rozwój platformy i produkcję na
następne 10 lat.

 

Wszystko to musiało się
wydarzyć, bo w sytuacji gdy budżety są stabilne a wymagania rosną,
firmom nie opłaca się płacić za serwery RISC i utrzymywać ich po okresie
gwarancji. Ten model jest zbyt kosztowny i mało elastyczny. Próby
uelastycznienia go, np. za pomocą wprowadzenia metody płacenia on demand, czyli
za rzeczywiste zużycie zasobów, nie dały oczekiwanych rezultatów.

 

Chmura z Intelem zrobiły swoje

Do takiego rozwoju wydarzeń znacząco przyczyniła się też
chmura obliczeniowa. Zorientowani na biznes decydenci, którym infrastruktura IT
z natury zawsze była obca, odetchnęli z ulgą, gdy dostawcy zaczęli
rozmawiać z nimi o funkcjach biznesowych, rysując przy tym ładne
chmurki. Tym samym przestali zatruwać miłą atmosferę smutnymi opowieściami
o gigabajtach, slotach, linkach i aktywnych rdzeniach.

Żeby jednak to wszystko
mogło się wydarzyć, musiał powstać procesor, który podoła wymaganiom
przeładowanej informacjami bazy danych, obciążonego żądaniami portalu czy też
„zasobożernej” Javy. Stał się nim Intel Xeon. Przez lata procesor ten był
traktowany trochę z pobłażaniem, jako starszy brat popularnego Pentium.
Ale producent uparcie wprowadzał nowe funkcjonalności typu Reliability,
Availability, Serviceability i systematycznie podnosił wydajność, co
sprawiało, że Xeon zyskiwał uznanie coraz szerszej rzeszy użytkowników. Powoli,
ale systematycznie klienci przekonywali się, że low-endowe serwery x86 są coraz
szybsze, coraz bardziej niezawodne i coraz tańsze, a producenci
oprogramowania, wprowadzając High Availability na swojej warstwie, udowodnili,
że płacenie za serwer RISC traci sens. Wymieniliśmy zatem RISC na Intela.
Oszczędziliśmy przy zakupie i na utrzymaniu, bo wyceny usług wsparcia
tańszych serwerów są również niższe. Sposób pierwszy i drugi na uzyskanie
oszczędności został z powodzeniem wykorzystany. Przyjrzymy się trzeciemu.

 

x86 – dużo pary w gwizdek

Kiedy w maju
1999 r. świat zobaczył VMware Workstation – pierwszy produkt do
wirtualizacji – sytuacja była daleka od idealnej. Serwery
o architekturze x86 wykorzystywano średnio w kilkunastu procentach.
Projektowe podejście do wdrażania nowych funkcji oraz trudności
w oszacowaniu ich docelowej wydajności potrzebnej dla coraz to nowszych
wersji oprogramowania też nie służyły rozwiązaniom opartym na infrastrukturze,
którą trzeba było kupić. Na końcu często okazywało się, że serwer pracuje na
ćwierć gwizdka albo jeszcze mniej wydajnie, a zwrotu sprzętu nikt nie
przyjmie. Dzisiaj, po kilkunastu latach, szacuje się, że wskaźnik wykorzystania
przeciętnego serwera x86 sięga (w zależności od badania)
ok. 50 proc.

 

Dlaczego mimo powszechnej wirtualizacji i sporego
wyboru hypervisorów (również bezpłatnych) nie osiągamy pełnej utylizacji?
Z tych samych powodów co zwykle. Polityka zakupów, podejście per projekt,
przeszacowanie zapotrzebowania na wydajność, rezerwacja miejsca na rozwój
systemu w przyszłości, alokowanie kosztów w różne budżety,
przesunięcie priorytetów z CAPEX na OPEX i za chwilę na odwrót, brak
elastyczności w organizacji itd. Mimo wszystko udało się jednak poprawić
współczynnik utylizacji CPU per serwer i nasze urządzenia pracują nie na
1/10, ale na pół gwizdka. Sposób trzeci wykorzystany. Oszczędności wydamy na
coraz to droższe smartfony, których nowe edycje różnią się głównie kolorem i…
celebrytą w telewizyjnej reklamie.

 

Skąd wydajność i High Availability?

Obserwując statystyki
sprzedaży, można zobaczyć, że kilka lat temu powstał zupełnie nowy segment na
rynku serwerów, który analitycy nazwali high-end x86. W dodatku jest to
segment, który rośnie najszybciej. Słów kilka, skąd się wziął i po co.
Otóż nie można bezrefleksyjnie wyrzucić wszystkich RISC-ów z serwerowni
i bezkrytycznie przesiąść się na chmurę, nawet prywatną. Są rozwiązania,
które z trudem znoszą architekturę typu scale-out, czyli rośnięcie wszerz.
Dokładanie co chwilę nowego serwera jest, owszem, łatwe i przyjemne.
Jednak pojawianie się rozwiązań wymagających dużo pamięci RAM w obrębie
jednej maszyny (Big Data, BI) lub po prostu potrzeba posiadania ogromnych baz
danych (rosnących za sprawą coraz większej ilości gromadzonych informacji np.
w systemach klasy CRM lub ERP) spowodowało, że zatrzymaliśmy się
w pół kroku.

Pozostaje jeszcze kwestia
wysokiej dostępności. Rozwój rozwojem, ale z dużą dozą pewności powiedzieć
można, że serwery wykorzystujące układy Intela nigdy nie zapewnią takiego
poziomu High Availability jak np. IBM-owe maszyny typu Power. Powód jest
prosty: IBM, HP i Oracle kontrolują tzw. pełny stack, czyli serwer,
wirtualizator i system operacyjny. Tymczasem wysoka dostępność to
zagadnienie interdyscyplinarne. Wyłączenie uszkodzonego zasobu sprzętowego musi
być obsłużone przez hypervisor i – w zależności od konfiguracji –
widoczne i możliwe do obsłużenia lub całkowicie transparentne dla systemu
operacyjnego. Intel produkuje procesory dla wszystkich i wszyscy produkują
oprogramowanie współpracujące z ich architekturą. W tej sytuacji nie
można zakładać, że np. obsługiwana bez problemu w serwerach
z procesorami Power funkcja CPU-offline będzie działała bez problemów
z VMware, Hyper-V, Linuksem, Windows i setką innych rozwiązań
pracujących na Intelu. Zbliżamy się powoli do ideału, ale lista wyjątków będzie
rosła, a matryca kompatybilności staje się coraz bardziej skomplikowana.

 

Powrót do RISC? Jest lepszy sposób…

Jest też kwestia wirtualizacji. Mimo wieloletnich wysiłków
i systematycznego wypuszczania nowych wersji najpopularniejszego
wirtualizatora firmy VMware, czyli vSphere, administratorzy PowerVM
(wirtualizator dla serwerów AIX) mogą w dalszym ciągu patrzeć
z pobłażaniem na swych kolegów z pokoju obok.

 

Wykorzystanie serwerów RISC jest nieporównywalnie większe
niż serwerów x86. Oczywiście jest to m.in. spowodowane ceną, bo nie tak łatwo
kupić nowy serwer lub urozbudowywać już posiadany z racji wysokich cen na
rynku komercyjnych Unixów. Wykorzystuje się więc to, co się ma, do samego
końca. Jest to jednak też pochodna architektury scale-up, czyli możliwości
wygodnego podziału jednej puli na mniejsze maszyny wirtualne, logiczne partycje
czy jak kto tam sobie w dziale marketingu to nazwał. Odpowiedź na pytanie,
czy wygodniej jest mieć jeden duży serwer i dzielić go przy pomocy jednego
hypervisora na mniejsze kawałki czy też mieć kilkaset serwerów, kilkaset
hypervisorów i dzielić te małe części na jeszcze mniejsze – jest
raczej oczywista.

Co zatem robić? Powrócić
do RISC-ów? Za drogo. Ten etap mamy już za sobą, choć są miejsca, gdzie jeszcze
przez lata będziemy widzieć na ekranach konsol znaczek AIX lub Solaris.
Historia odchodzących od 20 lat do lamusa mainframe’ów powtórzy się również w tym
przypadku. Powstało zatem rozwiązanie pośrednie. Oparte na procesorach Intel
z serii E7, wyposażone w możliwości RAS zbliżone do możliwości
serwerów RISC, oferujące gigantyczną wręcz wydajność w obrębie fizycznej
maszyny, dysponujące setkami rdzeni i terabajtami pamięci RAM, gotowe do
współpracy z wirtualizatorami i systemami operacyjnymi różnych marek.
Rozwiązanie w pewnym sensie niszowe, bo low-end x86 będzie dominował
w dalszym ciągu, ale obserwując wzrostowy trend i wartość tej niszy,
która w samej Europie szacowana jest na 700 mln dol., jestem dziwnie
spokojny, że będzie jeszcze okazja do porozmawiania na jego temat.

Benchmark najszybszego na świecie serwera x86 można
obejrzeć tutaj:
www.spec.org/cpu2006/results/res2014q4/cpu2006-20140929-31841.html. Serwer
w najbogatszej konfiguracji ma 240 rdzeni (skalowalny modułowo od min. 12
rdzeni w górę przy zachowaniu liniowego wzrostu wydajności), 24 TB
RAM i 56 slotów PCIe. Karty PCIe i RAM można wymieniać metodą hot
swap, a zaimplementowany mechanizm izolacji błędów sprawia, że za cenę
z intelowej półki mamy serwer zbliżony możliwościami do klasy RISC.
Pamiętacie o potrzebie oszczędzania na trzy sposoby? To właśnie ta
platforma jako jedyna daje szansę na skorzystanie z nich wszystkich jednocześnie.

Więcej
informacji:

www.bull.com/bullion

Jacek
Połczyński, Product Manager Storage & Servers,

jacek.polczynski@eptimo.com

Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/wiecej-za-mniej-czyli-ewolucja-platform-serwerowych-w-lekko-ironicznej-pigulce/feed/ 0
Allied Telesis rozwiąże problemy z zarządzaniem sieciami SDN https://crn.sarota.dev/artykuly/allied-telesis-rozwiaze-problemy-z-zarzadzaniem-sieciami-sdn/ https://crn.sarota.dev/artykuly/allied-telesis-rozwiaze-problemy-z-zarzadzaniem-sieciami-sdn/#respond Thu, 26 Mar 2015 09:00:00 +0000 https://crn.pl/default/allied-telesis-rozwiaze-problemy-z-zarzadzaniem-sieciami-sdn/ Większość systemów do budowy sieci SDN powstało z myślą o dużych centrach danych. W efekcie znajdują się całkowicie poza zasięgiem mniejszych klientów. By zmienić tę sytuację, Allied Telesis zastosował w swoim rozwiązaniu klasy Enterprise innowacyjne funkcje ułatwiające zarządzanie. Tym samym przeniosło je na znacznie niższą półkę cenową.

Artykuł Allied Telesis rozwiąże problemy z zarządzaniem sieciami SDN pochodzi z serwisu CRN.

]]>
Urządzenia firmy Allied
Telesis działają pod kontrolą innowacyjnego systemu operacyjnego AlliedWare
Plus, który zapewnia wiele funkcji niespotykanych w konkurencyjnych
rozwiązaniach, ale jednocześnie jest bardzo prosty w obsłudze. Jego
modularna konstrukcja pozwala na dokładanie kolejnych funkcji lub modułów
sprzętowych bez większego wpływu na ciągłość pracy sieci.

Taka architektura systemu pozwala na stosowanie odrębnych
procesów oprogramowania (modułów) do wykonywania różnych czynności, takich jak
zarządzanie, routing czy sprawowanie funkcji kontrolnych. Każdy z modułów
ma przypisany wyłącznie dla siebie fragment pamięci operacyjnej urządzenia,
dzięki czemu jest chroniony przed ewentualną nieprawidłową pracą innego modułu,
w wyniku której mogłoby np. dojść do przepełnienia bufora
i – w efekcie – zawieszenia całego systemu. Same moduły,
mimo że działają niezależnie od siebie, oczywiście stale komunikują się ze
sobą, wymieniając potrzebne informacje. Administratorzy mogą wprowadzać zmiany
konfiguracyjne do urządzeń działających pod kontrolą systemu AlliedWare Plus
przy pomocy efektywnego interfejsu linii komend, ale do ich dyspozycji jest też
interfejs graficzny, dostępny przez przeglądarkę internetową.

Urządzenia z Allied Telesis Management Framework

AMF jest dostępny w następujących produktach Allied
Telesis działających pod kontrolą systemu operacyjnego AlliedWare Plus:

• modularne przełączniki rdzeniowe SwitchBlade
x8100,

• zaawansowane przełączniki modularne
warstwy trzeciej SwitchBlade x908,

• zaawansowane przełączniki warstwy trzeciej
x900,

• zaawansowane przełączniki warstwy trzeciej
x610,

• gigabitowe przełączniki warstwy trzeciej x510,

• przełączniki do monitoringu wizyjnego IX5–28GPX,

• przełączniki dostępowe x310,

• gigabitowe przełączniki dostępowe x230,

• gigabitowe przełączniki brzegowe x210.

 

Od lat administratorzy skarżą się, że zarządzanie
ustawieniami konfiguracyjnymi sieci to żmudna praca, w trakcie której znacznie
rośnie ryzyko popełnienia błędów. Ogromną ilość czasu i wysiłku wymaga
wprowadzanie danych konfiguracyjnych. Podobnie jest z zarządzaniem ich
kopiami, do których dostęp jest konieczny w przypadku wymiany urządzenia
na nowe. W odpowiedzi na te wyzwania Allied Telesis opracowało rozwiązanie
Allied Telesis Management Framework – rozbudowany pakiet protokołów
i narzędzi upraszczających centralne zarządzanie siecią jako jednym
wirtualnym urządzeniem. Obsługa odbywa się za pomocą prostego
i intuicyjnego interfejsu linii komend. Oprogramowanie dba o to, aby
automatycznie i regularnie wykonywać kopię ustawień konfiguracyjnych oraz
plików z firmware’em. Dzięki temu w przypadku wymiany urządzenia na
nowe (np. po jego awarii) tuż po fizycznym podłączeniu do sieci bardzo szybko i
automatycznie jest ono przygotowywane do pracy. Kopię ustawień można też
sporządzić ręcznie, zaraz po wprowadzeniu zmian konfiguracyjnych.

 

Ułatwiona rozbudowa
i konfiguracja

W tradycyjnych sieciach
każde nowe urządzenie podłączane do infrastruktury musi być odpowiednio przygotowane
– mieć wprowadzone ustawienia konfiguracyjne i być przetestowane.
Podłączenie nieskonfigurowanego urządzenia i zmiany jego ustawień w trybie
online są ryzykowne i mogą spowodować nieprzewidziane zachowanie innego
sprzętu sieciowego.

Dzięki Allied Telesis
Management Framework nieskonfigurowane urządzenia mogą być podłączane
bezpośrednio do sieci od razu po wyjęciu z pudełka. Oprogramowanie zadba
wówczas o ich odpowiednie przygotowanie do pracy w trybie
produkcyjnym. Jeżeli będzie to możliwe, automatycznie przypisze mu ustawienia
konfiguracyjne, bazując na wykonanych kopiach z innych urządzeń. Będzie
też izolować nowy sprzęt od pozostałych elementów infrastruktury sieciowej do
czasu, gdy administrator podejmie decyzję o pełnym wdrożeniu go do systemu
sieciowego. Takie podejście znacznie ułatwia proces rozbudowywania sieci a
także ogranicza ryzyko popełnienia błędu.

Co ciekawe, AMF umożliwia
równoległe konfigurowanie wielu urządzeń na raz z poziomu linii komend.
Dzięki temu administratorzy nie muszą wielokrotnie powtarzać tej samej
czynności, a równocześnie zostaje zminimalizowane ryzyko wprowadzenia
niepoprawnych zmian konfiguracyjnych. W podobny sposób zapewniony jest
monitoring stanu infrastruktury – raz wprowadzona komenda jest wykonywana automatycznie
na wielu urządzeniach, a efekt jej działania przedstawiany w postaci jednego,
skonsolidowanego raportu. Na tej samej zasadzie możliwa jest równoległa
aktualizacja firmware’u w wielu urządzeniach sieciowych.

Program
lojalnościowy STAR

Allied Telesis prowadzi program lojalnościowy Star Partner,
w ramach którego zarejestrowani użytkownicy mogą gromadzić punkty nie
tylko za kupowanie promowanych produktów Allied Telesis, lecz także za bycie
aktywnym członkiem portalu partnerskiego. Zgromadzone punkty można wymieniać na
prezenty z katalogu.

Michał Kwiatkowski

Senior Product Manager Networking, Eptimo

Dzięki
sprzedaży rozwiązań Allied Telesis integratorzy zyskują przede wszystkim wysoką
marżę, zadowolenie klientów oraz pewność poprawnej pracy wdrożonego systemu.
Niezawodność urządzeń sięga 99,5 proc., co jest trudno osiągalnym wynikiem
w przypadku konkurencyjnych rozwiązań. Eptimo, jako autoryzowany
dystrybutor z wartością dodaną,

zapewnia
kompleksowe wsparcie oraz dostępność produktów. Przejrzyste zasady współpracy
ułatwiają realizację wspólnych projektów i zapewniają wysoki zysk.

 
Multimedia Polska wybrało
Allied Telesis

Firma operatorska Multimedia Polska jest jednym z pierwszych
w Polsce usługodawców, który zainstalował pełną infrastrukturę IP opartą
na standardzie Triple Play (telewizja, telefon i Internet na jednym
kablu), łącząc tym samym kilka dużych miast. Obecnie jest jednym z kilku
większych użytkowników rozwiązań Allied Telesis w Polsce.

Operator chciał zbudować
infrastrukturę, która miałaby zasięg ogólnokrajowy. Dodatkowo niezbędna była
bardzo duża przepustowość, aby zapewnić trnasmisję wideo w wysokiej
rozdzielczości oraz bezproblemowe przesyłanie dużych ilości danych. Utrzymanie
sieci w dobrym stanie wymagało rozmieszczenia podobnych produktów
w wielu lokalnych placówkach, co miało na celu osiągnięcie ogólnokrajowego
zasięgu sieci przy minimalnym nakładzie pracy. Rozwiązanie miało być również
kompatybilne z działającą w infrastrukturze Multimedia Polska siecią
szkieletową SDH, aby można było objąć zasięgiem wszystkie miasta.

Co więcej, operatorowi
zależało, aby wymienione powyżej wymagania zostały spełnione przez rozwiązanie
dostępne w relatywnie niskiej cenie, co zapewniłoby stosunkowo szybki
zwrot kosztów inwestycji. Z tego względu zdecydowano się na rozwiązanie
oparty routingu transmisji w trybie multicast, który umożliwia emisję
wszystkich kanałów TV razem a odbiór przez abonenta jednego lub kilku z nich na
raz . Taki wybór pozwolił na zmniejszenie ruchu i jednoczesne uproszczenie
infrastruktury sprzętowej. Oznaczało to, że wybrane routery musiały być zgodne
z protokołem IGMP i gotowe do routingu pakietów multicast przy bardzo
dużym obciążeniu, ale z zachowaniem wysokiej jakości. Było to szczególnie
ważne w przypadku strumieni telewizyjnych HD.

Po zapoznaniu się
z ofertą kilku producentów oraz porównaniu ich ofert zespół Multimedia
Polska wybrał dwa produkty z proponowanych przez Allied Telesis
zaawansowanych przełaczników warstwy trzeciej. Gigabit Ethernet na każdym
porcie w tych wielofunkcyjnych przełącznikach zapewniła stabilność w działaniu
sieci. Przełączniki te mogą być również stosowane przy innego typu projektach,
które wymagają stale rosnących przepustowości. Dzięki wydajności
i elastyczności rozwiązania urządzenia te znajdują zastosowanie m.in.
u dostawców usług, a także w instytucjach rządowych,
przedsiębiorstwach, placówkach edukacyjnych, a także ośrodkach medycznych.




Tomasz Odzioba

 

Country Manager, Allied Telesis

Allied Telesis
stale rozwija ofertę i wprowadza nowe, innowacyjne funkcje do swoich urządzeń,
które są doceniane przez ekspertów. Niedawno rozwiązanie Allied Telesis
Managment Framework otrzymało nagrodę iCMG Architecture Award of Excellence
2014 w kategorii infrastruktura IT. Wierzymy, że systemy te spełnią oczekiwania
także integratorów współpracujących z Eptimo oraz ich klientów.

Więcej
informacji:

Michał
Kwiatkowski, Senior Product Manager Networking,

michal.kwiatkowski@eptimo.com

Artykuł Allied Telesis rozwiąże problemy z zarządzaniem sieciami SDN pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/allied-telesis-rozwiaze-problemy-z-zarzadzaniem-sieciami-sdn/feed/ 0
Firmowy atlas chmur https://crn.sarota.dev/artykuly/firmowy-atlas-chmur/ https://crn.sarota.dev/artykuly/firmowy-atlas-chmur/#respond Wed, 25 Mar 2015 09:00:00 +0000 https://crn.pl/default/firmowy-atlas-chmur/ Z punktu widzenia przedsiębiorstwa wykupienie usługi w chmurze to przeniesienie wydatków na IT z kosztów inwestycyjnych (CAPEX) związanych z rozwojem lub wdrożeniem infrastruktury IT do kosztów operacyjnych (OPEX) dotyczących jej utrzymania. To jeden z powodów, dla których składowanie danych w chmurze i kupno usługi zamiast aplikacji brane jest pod uwagę przez coraz większą liczbę firm.

Artykuł Firmowy atlas chmur pochodzi z serwisu CRN.

]]>
Dzięki wykorzystaniu
usług w chmurze przedsiębiorca zamienia inwestycje kapitałowe
w koszty operacyjne. Jest to szczególnie istotne w wypadku szybko
rozwijających się firm. Tutaj dodatkowy kapitał zazwyczaj sprzyja szybszemu
generowaniu przychodów. Z chmury coraz częściej korzystają małe
i średnie przedsiębiorstwa oraz start-upy, których nie stać na kosztowne
inwestycje w sprzęt i oprogramowanie. Dzięki chmurze firmy korzystają
z technologii, na które na danym etapie rozwoju nie mogłyby sobie
pozwolić. Mogą to być systemy ERP do zarządzania firmą, narzędzia analityczne
związane z Business Intelligence, Big Data czy specjalistyczne systemy
inżynierskie i systemy cyfrowego wytwarzania (Digital Manufacturing).

Dzięki temu rozpoczynające
działalność start-upy mogą skupić się na możliwie najszybszym dostarczeniu
klientom nowatorskich produktów czy usług, nie zajmując się w ogóle
infrastrukturą niezbędną do uruchomienia biznesu. Łatwo też dopasować zasoby do
rosnącego popytu. Z kolei małym i średnim przedsiębiorcom chmura
w znaczący sposób ułatwia konkurowanie z dużymi przedsiębiorstwami,
zmniejszając bariery wejścia związane z zakupem drogich narzędzi
i technologii. Korzystając z chmury, przedsiębiorcy mogą więc skupić
się na podstawowych procesach biznesowych.

Najważniejsze korzyści
płynące z wdrożenia rozwiązań chmurowych

• obniżenie kosztów,

• zwiększenie wydajności,

• przyspieszenie
wdrożenia nowych usług lub opracowania produktów,

• skalowalność
systemów IT,

• możliwość wejścia w
nowe obszary biznesowe.

 

Jeśli chodzi o duże przedsiębiorstwa to szczególnie
istotna jest możliwość wykorzystania bazujących na usługach w chmurze
rozwiązań do pracy grupowej, z których
można również korzystać za pośrednictwem urządzeń mobilnych. Tego typu systemy
w znaczący sposób podnoszą efektywność pracowników i jednocześnie
uwalniają zasoby (ludzkie i sprzętowe), które można zaangażować do
zapewnienia bezawaryjnej pracy krytycznych systemów korporacji. Tak znaczące
przeniesienie akcentów w biznesie z reguły przynosi wymierne zyski
i to one właśnie leżą u podłoża zainteresowania przedsiębiorców
wykorzystaniem usług chmurowych.

W dużych przedsiębiorstwach i korporacjach
najczęściej wykorzystywanymi rozwiązaniami są chmury prywatne i hybrydowe,
które wymagają jednak pewnych inwestycji w sprzęt. Oszczędności uzyskuje
się tutaj dzięki konsolidacji i centralizacji rozwiązań. Istotne są też:
uzyskanie wysokiego stopnia upakowania sprzętu, jego równomiernego obciążenia
zadaniami obliczeniowymi i wysoka utylizacja posiadanych zasobów
informatycznych. Dzięki temu użytkownik może osiągnąć znacznie lepszy zwrot
z inwestycji i uzyskać niższe całkowite koszty posiadania TCO.

Modele chmury

Obecnie usługi chmurowe
dostarczane są w czterech podstawowych modelach. Pierwszy z nich to IaaS
czyli Infrastructure as a Service
. W tym modelu klient wykupuje usługę polegającą na dostarczeniu
mu jedynie wirtualnej infrastruktury IT, która zapewni wymaganą moc
obliczeniową i zasoby. Użytkownik ma tutaj pełną kontrolę nad zasobami
informatycznymi firmy, ale nie musi utrzymywać własnych urządzeń IT.

Drugi z modeli to PaaS – Platform as a Service.
Tutaj oprócz zasobów sprzętowych z chmury dostarczana jest platforma
systemowa wraz z mechanizmami związanymi z zarządzaniem oraz
platforma binarna wykorzystywanych aplikacji, np. bazy SQL, środowiska Java czy
PHP.

Najczęściej
wykorzystywanym modelem jest SaaS
– Software as a Service
. Jest to kompleksowe rozwiązanie, w którym klient kupuje usługę
polegającą np. na dostępie do ściśle określonego oprogramowania. Może to być
sklep internetowy, system CRM lub ERP, oprogramowanie biurowe, system CAD itp.
w tym przypadku użytkownik nie utrzymuje ani infrastruktury, ani środowiska
uruchomieniowego, ani też nie instaluje poszczególnych aplikacji – robi to
usługodawca. Co ważne, użytkownik nie kupuje również danego programu na
własność, ale nabywa jedynie prawo do jego użytkowania. Model SaaS zakłada
zazwyczaj cykliczne, abonamentowe opłaty za dostęp do programów oraz opłaty za
wykorzystaną w miesiącu moc obliczeniową, jeśli przekroczone zostały
limity przyznane w ramach abonamentu. Ostatnim z modeli usług
chmurowych jest BaaS
– Business as a Service
. Polega on na zapewnieniu
klientowi końcowemu kompleksowej obsługi wskazanych procesów biznesowych bez
odniesienia do złożoności rozwiązania IT.

 
Niezawodna chmura

Niezależnie od przyjętego modelu i lokalizacji chmury
z punktu widzenia przedsiębiorstwa istotne jest zapewnienie nieprzerwanego
dostępu do danych i usług, zwłaszcza tych krytycznych. W firmie musi być
też zapewniony właściwy stopień bezpieczeństwa przesyłanych informacji. Innymi
słowy, musi zostać wdrożona odpowiednia polityka bezpieczeństwa a wraz
z nią procedury związane z dostępem do danych i możliwością ich
modyfikacji. Istotny jest też osprzęt sieciowy oraz zapewnienie nieprzerwanego
zasilania.

Przykładem urządzeń podtrzymujących zasilanie chmury mogą
być tu zasilacze modułowe firmy Legrand. Sprzęt ten zamontować można
w szafach stelażowych lub szafach pojedynczych a ich modułowa budowa
umożliwia zwiększenie mocy lub wydłużenie czasu podtrzymania zasilania. Co
ważne, ich montaż odbywa się całkowicie bez użycia narzędzi. W przypadku
awarii jednego z modułów, redundancja gwarantuje nieprzerwaną ciągłość
zasilania. Rozdział mocy odbywa się dzięki równoległej pracy modułów na każdej
z faz. W zależności od modelu możliwy zakres mocy waha się od 1,25 do
120 kVA.

Zaawansowane urządzenia
sieciowe, które również mogą posłużyć do budowy firmowej chmury prywatnej,
chmury hybrydowej lub zapewnią niezawodny dostęp do sieci w dużej firmie
oferuje również Allied Telesis. W ofercie producenta znaleźć można m.in.
serię przełączników SwitchBlade x8100. Jest to o tyle ciekawa konstrukcja,
że – podobnie jak w wypadku serwerów kasetowych – mamy tu do
czynienia z obudową stelażową, w której montuje się nie tyle serwery,
a niezbędne przełączniki sieciowe. Dzięki temu infrastrukturę sieciową
można bardzo łatwo dopasować do potrzeb, a gdy te wzrosną łatwo
przeskalować.

Systemy archiwizacji danych, które można wykorzystać w środowisku
chmurowym opracowała też znana przede wszystkim z przygotowywania BIOS-ów
firma American Megatrends. Produkty tego dostawcy sprzedawane pod marką
StorTrends pozwalają na zbudowanie macierzy pamięci SAN dla środowisk VDI
(Virtual Desktop Infrastructure) stosowanych powszechnie w systemach cloud
computingu.

Klasyczna infrastruktura
sieciowa to w obecnych czasach coraz mniej istotny fragment firmowej sieci
traktowanej jako całość. W wielu firmach istotne jest bowiem zbieranie
danych pochodzących bezpośrednio z produkcji, a następnie
przetwarzanie ich w systemach zarządzania produkcją i przekazywanie
ich do systemów ERP lub analityki biznesowej. W tych zadaniach pomocne są
rozwiązania typu Machine to Machine.

Tego typu narzędziami
zajmuje się wrocławska firma Rhino. Dzięki nim w czasie rzeczywistym
maszyny, urządzenia i obiekty mogą komunikować się między sobą, bez
ingerencji człowieka. Technika M2M idealnie sprawdza się tam, gdzie trzeba
stale kontrolować procesy, zapobiegać przerwom w produkcji, czy
monitorować zasoby firmy. Dane w połączeniu z mocą obliczeniową
chmury można zaprząc nie tylko do sprawniejszego zarządzania produkcją, ale
również do zwiększenia przewagi konkurencyjnej. Firma ma bowiem wówczas
możliwość kontrolowania na bieżąco nie tylko samej produkcji, ale przepływu
materiałów oraz znacznie bardziej elastycznego sterowania procesami
w zależności od spływających zamówień klientów.

Artykuł Firmowy atlas chmur pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/firmowy-atlas-chmur/feed/ 0
Roadshow Eptimo: z małej chmury duży biznes https://crn.sarota.dev/aktualnosci/roadshow-eptimo-z-malej-chmury-duzy-biznes/ https://crn.sarota.dev/aktualnosci/roadshow-eptimo-z-malej-chmury-duzy-biznes/#respond Tue, 17 Mar 2015 14:30:00 +0000 https://crn.pl/default/roadshow-eptimo-z-malej-chmury-duzy-biznes/ Cloud Computing, czyli z małej chmury duży biznes - pod takim hasłem odbędzie się pierwsze roadshow Eptimo dla resellerów i integratorów. Podczas spotkań uczestnicy poznają rozwiązania chmurowe mniej znane w Polsce i dowiedzą się, jak na nich zarabiać.

Artykuł Roadshow Eptimo: z małej chmury duży biznes pochodzi z serwisu CRN.

]]>
Konferencje zaplanowano w pięciu miastach. Roadshow rusza 13 kwietnia w Leźnie koło Gdańska, a zakończy się w 23 kwietnia w Ślęzy koło Wrocławia. W trakcie konferencji zostaną zaprezentowane rozwiązania chmurowe, oferowane przez dostawców do tej pory mniej znanych na polskim rynku IT. Przedstawiciele takich firm jak American Megatrends, Legrand, Bull, Allied Telesis, Rhino i ZTE podpowiedzą uczestnikom, jakie technologie wybrać dla klientów.

Resellerzy i integratorzy dowiedzą się także, jak dopasować rozwiązania cloud computing do infrastruktury przedsiębiorstwa i co proponować klientom, aby zwiększyć swoje zyski. 

– Jesteśmy przekonani, że rozwiązania chmurowe to przyszłość branży IT. Swoim partnerom chcemy pokazać, że warto w nie inwestować. Swoją ofertę opieramy na rozwiązaniach do tej pory mało znanych, ale bardzo zyskownych i pozwalających optymalnie wykorzystać możliwości cloud computingu – zapewnia Przemysław Kucharzewski, COO Eptimo.


Harmonogram roadshow Eptimo:

Leźno koło Gdańska – 13.04.2015

Biedrusko koło Poznania – 14.04.2015

Warszawa – 21.04.2015

 

Kraków – 22.04.2015

 

Ślęza koło Wrocławia – 23.04.2015

 

Więcej szczegółów oraz rejestracja na stronie internetowej: www.eptimo.com/roadshow/.  

Patronem medialnym roadshow jest CRN Polska.

Artykuł Roadshow Eptimo: z małej chmury duży biznes pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/aktualnosci/roadshow-eptimo-z-malej-chmury-duzy-biznes/feed/ 0