Artykuł Eptimo: roadshow z wartością dodaną pochodzi z serwisu CRN.
]]>– W przypadku broadlinerów towar jest tylko „part
numberem”, a naszym zdaniem dział handlowy powinien wiedzieć, co sprzedaje,
i tak właśnie jest w przypadku Eptimo – podkreślał rozmówca CRN
Polska.
Obranej strategii
podporządkowany jest rozwój portfolio, na które składają się produkty sieciowe
i niszowe. Poza tym partnerzy dystrybutora mogą już korzystać z dwóch
centrów szkoleniowych (w Katowicach i Wrocławiu), w wakacje zaś
ma ruszyć kolejne, w Warszawie. Ponadto od kwietnia funkcjonuje nowy,
w pełni responsywny serwis B2B Eptimo (b2b.eptimo.com).
– Zależy nam na tym, by nie stać w miejscu. Dlatego
zaraz po zakończeniu roadshow uruchomiliśmy nową platformę B2B dla naszych
klientów. Serwis jest dostępny nawet dla niezalogowanych użytkowników,
natomiast po rejestracji można szybko dokonywać zakupu wybranych produktów –
mówił Józef Szajter, CEO Eptimo.
Podczas spotkań z resellerami oraz integratorami
dystrybutor zaprezentował ofertę kilku kluczowych dostawców, w tym paru
zupełnie nowych na polskim rynku. Na razie trzon tej części oferty, która ma
być realizowana w ramach dystrybucji z wartością dodaną, stanowią
m.in.: Legrand, Allied Telesis, ZTE, American Megatrends, Bull oraz Rhino. Do
końca bieżącego roku Eptimo zamierza podpisać co najmniej kilka kolejnych umów
dystrybucyjnych (najnowsza, z początku maja br., dotyczy sieciówki
MikroTik).
Tematyką roadshow był cloud computing, ale prezentacje
często wybiegały poza ten obszar technologiczny. Przykładem są zasilacze UPS
marki Legrand, które – jak twierdzą przedstawiciele producenta
– cieszą się ponad 20-proc. udziałem w całym światowym rynku (licząc
urządzenia dostarczane innym producentom).
– Stawiamy na sprzedaż
urządzeń, które są tańsze niż konkurencyjne pomimo tych samych parametrów. To
możliwe, bo wiele podzespołów powstaje w naszych fabrykach i nie
musimy ich kupować od zewnętrznych dostawców – twierdzi Piotr Przepiórka, specjalista ds. rozwoju UPS-ów
w Legrandzie.
O przewadze, jaką dają własne fabryki, mówił też Tomasz
Odzioba, Country Manager Allied Telesis w Polsce, Ukrainie oraz krajach
bałtyckich. Japoński producent przełączników dysponuje dwoma zakładami
w Chinach oraz Singapurze. Przedstawiciel dostawcy omawiał m.in.
rozwiązanie AMF, opracowane początkowo na potrzeby Toshiby, a następnie
wprowadzone na światowy rynek. Umożliwia ono łatwiejsze zarządzanie siecią
o szczególnie skomplikowanej strukturze.
Zdaniem integratora
Zależało mi na zapoznaniu się z oferowanymi przez Eptimo
rozwiązaniami. Nowy dystrybutor z nowymi markami to ciekawa propozycja na
rynku. Interesujące prezentacje, merytoryczna formuła oraz odrobina rozrywki w
postaci skeczy kabaretowych… To było udane wydarzenie.
Uczestnicy roadshow poznali też nową strategię ZTE, do tej
pory aktywnego przede wszystkim w segmencie operatorów
telekomunikacyjnych. W efekcie 2–3 mln Polaków łączy się
z bezprzewodową siecią za pomocą modemów tej właśnie marki. Chiński
dostawca jest też liderem na polskim rynku wdrożeń FTTH. Jednak niedawno
zapadła decyzja, żeby znacznie większy nacisk położyć na sektor
przedsiębiorstw. Początkowo z ofertą sprzętu sieciowego (m.in. routerów
i przełączników), zaś w III kw. br. również z produktami storage’owymi.
Eptimo oferuje storage
już teraz, przy współpracy z American Megatrends – producentem
macierzy dyskowych marki StorTrends. Dystrybutor podkreśla, że amerykański
dostawca nie każe dopłacać klientom za dodatkowe funkcje ułatwiające
zarządzanie danymi. Kolejną ciekawą, nieszablonową marką w ofercie
dystrybutora jest Bull, producent superkomputerów i szybkich serwerów.
Jednym z głównych argumentów sprzedażowych ma być w tym przypadku
dobry poziom parametru TCO, dzięki szybkości, skalowalności i cenom
– podkreślali przedstawiciele producenta.
– Budżety na IT nie rosną, w przeciwieństwie do
wymagań użytkowników. W takiej sytuacji można dokonać optymalizacji
istniejącej infrastruktury lub przejść na bardziej wydajną technologię za
rozsądne pieniądze – przekonywał Tomasz Pojda, Customer Service Manager
w firmie Bull.
Z kolei specjalista Rhino zachęcał do wejścia
w taki segment rynku jak telemetria. Systemy telemetryczne RhinoAMI są
jedynym tego typu rozwiązaniem przeznaczonym do sprzedaży w polskim kanale
dystrybucji IT. Dzięki nim można zoptymalizować zużycie energii elektrycznej,
wody, ciepła i gazu, co skutkuje zmniejszeniem kosztów dla ich
użytkownika.
Film z roadshow Eptimo jest dostępny pod adresem: youtu.be/ybAjinQaSBM
Artykuł Eptimo: roadshow z wartością dodaną pochodzi z serwisu CRN.
]]>Artykuł Edimax Pro – sieci bezprzewodowe dla profesjonalistów pochodzi z serwisu CRN.
]]>
Jednym
z najistotniejszych wymagań, które administratorzy stawiają rozbudowanym
systemom sieci bezprzewodowych, jest łatwość ich konfiguracji
i zarządzania nimi. Urządzeniami
Edimax można zarządzać za pomocą unikalnego systemu Network Management Suite. Zapewnia on wgląd
we wszystkie potrzebne informacje dotyczące statystyk ruchu, listy podłączonych
urządzeń itd. Z centralnej konsoli można zarządzać ustawieniami
uwierzytelniania RADIUS, parametrami grup użytkowników i zasadami dostępu
gości do infrastruktury sieciowej.
Nie tylko sieci
bezprzewodowe
Edimax oferuje nie tylko urządzenia do budowy sieci
bezprzewodowych. W portfolio tajwańskiej firmy znajdują się też
urządzenia do tworzenia infrastruktury sieci przewodowych (przełączniki i
konwertery sygnału), przełączniki KVM i kamery IP. Wiele z nich może być
zasilanych za pośrednictwem infrastruktury sieciowej (standard Power
over
Ethernet 802.3af/at). Edimax poleca też użytkownikom pełne portfolio
urządzeń
do budowy telewizji przemysłowej i monitoringu z użyciem kamer
sieciowych z
serii SMax.
Dzięki zastosowaniu systemu NMS każde urządzenie
z serii Edimax Pro może pełnić funkcję kontrolera i zarządzać
maksymalnie ośmioma innymi punktami dostępowymi. Eliminuje to konieczność
stosowania drogich kontrolerów zewnętrznych do zarządzania infrastrukturą
sieciową. Ponadto nawet podczas pracy urządzenia w trybie kontrolera
zachowywane są jego funkcje jako AP.
Punkty dostępowe Edimax
Pro zapewniają szybki roaming użytkowników. Rzecz polega na tym, że
bezprzewodowe połączenie, z którego korzystają, zostaje podtrzymane przy
wyjściu z zasięgu radiowego jednego punktu dostępowego i wejściu
w zasięg drugiego. Dzięki temu osoby korzystające z sieci bezprzewodowej
nie muszą w takiej sytuacji ponownie się do niej logować. Zresztą sam
zasięg stanowi wyróżnik tych punktów dostępowych. Dzięki wysokiej czułości
odbiornika urządzenia mobilne bez problemu uzyskują stabilne połączenie w całym
obszarze pracy AP.
Urządzenia z serii Edimax Pro są objęte unikalną
dożywotnią gwarancją. Producent zapewnia wsparcie autoryzowanym instalatorom,
w ramach którego przeprowadzane są szkolenia, zapewniona jest bezpośrednia
obsługa gwarancji oraz specjalne warunki, dostosowane do realizowanych przez integratorów
projektów. Aby z nich w pełni skorzystać, wystarczy uzyskać
certyfikat autoryzowanego instalatora Edimax Pro.
Więcej
informacji:
Michał
Kwiatkowski, Senior Product Manager Networking,
michal.kwiatkowski@eptimo.com
Artykuł Edimax Pro – sieci bezprzewodowe dla profesjonalistów pochodzi z serwisu CRN.
]]>Artykuł RhinoAMI – optymalna telemetria dla wymagających pochodzi z serwisu CRN.
]]>Inteligentny system telemetryczny RhinoAMI powstał
w odpowiedzi na ich potrzeby. Dostarcza on pełnych informacji dotyczących
zużycia mediów. Ryzyko błędnych odczytów liczników wykluczone zostało dzięki
automatycznemu, jednoczesnemu pobieraniu i przesyłaniu informacji drogą
radiową. Podejmowane przez administratora budynku świadome działania w tym
obszarze skutkują zmniejszeniem kosztów zużycia energii nawet o około
15 proc.
Rozwiązanie jest bardzo
proste w budowie i składa się z trzech elementów: radiowego
modułu, który zbiera dane z liczników, kolektora tychże danych
przekazującego je do centralnej bazy za pomocą sieci GSM lub Internetu, jak
również aplikacji umożliwiającej zdalne śledzenie na bieżąco poziomu zużycia
poszczególnych mediów.
System RhinoAMI daje administratorom budynków szereg
możliwości, które sprzyjają efektywniejszemu zarządzaniu. Jedną z nich
jest prognozowanie zużycia w danym miesiącu czy kwartale, co ułatwia
negocjacje cen z dostawcami. Zarządca budynku może też wystawiać rachunki
za media, bazując na ich rzeczywistym zużyciu, a nie na podstawie mało
precyzyjnych prognoz.
Komponenty systemu RhinoAMI
Rozwiązanie RhinoAMI
(Advanced Metering Infrastructure) ma topologię zbliżoną do sieci Wi-Fi.
Głównym elementem jest radiowy moduł telemetryczny RhinoAMI ED zbierający
informacje z liczników lub czujników mierzących dowolne wielkości fizyczne
i przesyłający je do punktu dostępowego (AP) przez sieć GSM lub Ethernet
i – za jego pośrednictwem – na serwer. W sieci można
stosować też wzmacniacze sygnału radiowego RhinoAMI RE, jeśli pomiędzy
urządzeniem nadawczym i odbiorczym jest duża odległość lub występują zakłócenia.
Do dyspozycji użytkowników oddano też aplikację służącą do analizy
i raportowania danych pomiarowych z opcją eksportowania do dowolnego
zewnętrznego systemu przez interfejs programistyczny API lub do plików XLS
i CSV.
Rozwiązanie charakteryzuje się prostym w obsłudze
interfejsem. Umożliwia m.in. porównanie pomiarów z poprzednich okresów
rozliczeniowych i ich wizualizację oraz prezentowanie wykresów z informacjami
na temat bieżącego i historycznego zużycia mediów. Kolejną funkcją
oferowaną przez system RhinoAMI jest Benchmark, czyli porównywanie poziomu
zużycia w danym okresie między poszczególnymi obiektami. W ten sposób
można np. wykrywać awarie liczników czy ujawniać korzystanie z nich
w niewłaściwy sposób.
Dashboard to aplikacja do prezentowania danych
o rzeczywistym zużyciu mediów na urządzeniu podłączonym do systemu
RhinoAMI. Daje możliwość systematycznej kontroli i wglądu w okresowe
raporty, które ułatwiają optymalne zarządzanie konsumpcją mediów. Dodatkowo
system zapewnia użytkownikom alarmy (automatyczne powiadomienia wyświetlane na
ekranie komputera lub przesyłane SMS-em oraz pocztą elektroniczną), informujące
o wystąpieniu awarii lub przekroczeniu przewidzianego zużycia zakupionych
mediów.
Na polskim rynku
dystrybutorem z wartością dodaną rozwiązań marki RhinoAMI jest Eptimo.
Wraz z ich producentem – Hicron
Group – oferuje pełne wsparcie techniczne oraz serwisowe.
Więcej
informacji:
Sebastian
Janowski, Product Manager UPS, M2M,
sebastian.janowski@eptimo.com
Artykuł RhinoAMI – optymalna telemetria dla wymagających pochodzi z serwisu CRN.
]]>Artykuł Rozwiązania sieciowe ZTE dla chmur obliczeniowych pochodzi z serwisu CRN.
]]>Stopień tych zmian
najłatwiej można zobrazować, prezentując wyniki poboru energii elektrycznej w
centrum danych. Jeszcze do niedawna sprzęt w typowej szafie przemysłowej
pobierał ok. 2–3 kW. Wprowadzenie wirtualizacji serwerów
i desktopów bardzo szybko podniosło tę wartość do 10 kW,
a nierzadko można też spotkać szafy z urządzeniami pobierającymi aż
18 kW. W takiej sytuacji konieczne jest wprowadzenie zmian
w architekturze całego centrum danych. Dotyczy to fizycznego rozlokowania
szaf, stabilnego zasilania i klimatyzacji oraz odpowiedniej infrastruktury
sieciowej, która udźwignie tak skondensowaną ilość przesyłanych informacji.
Jednym z ważniejszych parametrów opisujących zainstalowany w
centrum danych sprzęt jest współczynnik PUE (Power Usage Effectiveness), który
stał się de facto standardem mierzenia efektywności energetycznej. PUE jest
stosunkiem całkowitej energii dostarczanej do centrum danych do energii
wykorzystywanej przez sprzęt IT (serwery, pamięci masowe i sieć komputerową).
Idealną, choć praktycznie nieosiągalną wartością PUE jest 1 – w takim przypadku
cała dostarczona energia jest zużywana przez sprzęt IT. Jednak część
dostarczonej energii musi być zużyta przez system chłodzenia, zasilania
gwarantowanego, oświetlenia i inne rozwiązania wspomagające infrastrukturę
centrum danych. Typową wartością PUE dla tradycyjnego centrum danych jest 2,
ale ośrodki korzystające z najnowszych rozwiązań są już bardziej efektywne i
mają PUE o wartości znacznie poniżej 2.
Cezary Terepka
Rozpoczęliśmy
współpracę z Eptimo w odpowiedzi na zachodzące zmiany na rynku IT, na
którym obecnie klienci szukają zaawansowanych technologicznie produktów
w atrakcyjnych cenach i dystrybutorów potrafiących dzielić się
z nimi wiedzą. Firma Eptimo od początku istnienia jasno komunikowała
właśnie te wartości – wierzymy, że nasza współpraca będzie owocna.
Problemem staje się też
czas, który należy poświęcić na budowę całego centrum danych lub jego dużą
modernizację. Wymagany przez działy biznesowe firmy czas oczekiwania na nowe
zasoby jest znacznie krótszy niż ten potrzebny na kupno nowych rozwiązań,
wdrożenie ich, przetestowanie i zastosowanie w fazie produkcyjnej.
Aby
rozwiązać problem, wiele firm eksperymentuje z całkowicie nowymi sposobami
przechowywania i porządkowania zasobów centrum danych. Google korzysta
z modelu kontenerowego, gdzie do centralnej infrastruktury energetycznej
i sieciowej podłączone są kontenery (te dobrze znane z transportu
towarów). Są po brzegi wypełnione serwerami i pamięciami masowymi,
odgrywając w całej architekturze
taką funkcję jak pojedyncza szafa przemysłowa w tradycyjnym centrum
danych. Dzięki ujednoliceniu standardu wyposażenia kontenerów, dołożenie dużej
ilości nowych zasobów trwa kilkakrotnie krócej niż w przypadku tradycyjnych
rozwiązań.
Rozwiązania dla sieci kampusowych stanowią trzon oferty ZTE
– to aż dziesięć modeli, różniących się od siebie wydajnością
i funkcjonalnością. Dostępne są trzy modele z portami Fast Ethernet
(2900E, 3900 A i 3900E), cztery gigabitowe (5250, 5900, 5900E
i 5950-H) i trzy z interfejsem 10 GbE (5960, 8900 i 8900E).
Urządzenia z literą „E” w nazwie modelu (Easy
Maintenance) dodatkowo wyposażono w opatentowane przez ZTE funkcje
ułatwiające zarządzanie przełącznikami. Po wciśnięciu na obudowie danego
przełącznika przycisku Mode Switching Button (M-button) administrator sieci
natychmiast otrzymuje komplet potrzebnych mu informacji: poziom wykorzystania
pamięci i mocy procesora, przepustowość przy wysyłaniu i odbieraniu
danych, informację o ewentualnych zablokowanych portach w topologii
pierścienia. Bieżąca kontrola obejmuje także: stan pracy poszczególnych portów,
wiadomość o fakcie i miejscu występowania burzy broadcastowej
(broadcast storm), informację, czy danemu portowi przypisany został adres MAC
karty sieciowej użytkownika itd. Mogą być także wyświetlone błędy CRC, które
wskazują na ewentualną nieprawidłową pracę łącza światłowodowego lub
miedzianego.
Ponadto modele 59×0
i 8900 są przełącznikami wielowarstwowymi, które obok tradycyjnego
przełączania w warstwie drugiej wytyczają także trasę dla pakietów
w sieci (routing w warstwie trzeciej). Urządzenia 8900 i 8900E
to typowe przełączniki o najwyższej możliwej wydajności agregujące ruch
z całej sieci.
Wybrani partnerzy i wdrożenia rozwiązań ZTE na świecie
• ZESCO – największy producent energii w
Zambii
• TEO (Lietuvos Telekomas) – największy
operator telekomunikacyjny na Litwie
• Telecom Italia Group – piąty pod względem
wielkości, międzynarodowy operator telekomunikacyjny w Europie
• Projekt sieci ONT w chińskim
przedsiębiorstwie State Grid Corporation of China
• FibreCo – Narodowa Sieć Szerokopasmowa w
Afryce Południowej
• Projekt wspomagania dystrybucji środków
farmaceutycznych dla Ministerstwa Zdrowia w Wenezueli
• System bezpieczeństwa miejskiego w
Marsylii, Francja
ZTE klasyfikuje
przełączniki z serii 5960 i 8900E jako idealne do obsługi
infrastruktury sieciowej w centrach danych. Mają one interfejs 10 GbE
i zapewniają wielowarstwowe przełączanie. Wart polecenia jest także
przełącznik BigMatrix 9900, który jako jedyny obecnie w ofercie ZTE
wyposażono interfejsy 10, 40 i 100 GbE.
ZTE ma także
w portfolio rodzinę inteligentnych przełączników ZXR10 1000 dla małych
i średnich przedsiębiorstw. Dostępnych jest osiem modeli niezarządzalnych
oznaczonych symbolem 1150 (Fast Ethernet) i 1160 (Gigabit Ethernet),
w wersjach z 5, 8, 16 i 24 portami.
W portfolio
znajdują się też cztery gigabitowe modele zarządzane przez przeglądarkę
internetową, oznaczone symbolem 1660, które można wyposażyć nie tylko
w miedziany, ale także optyczny interfejs.
Najbardziej zaawansowany
z nich (1660–24PC) umożliwia zasilanie podłączonych urządzeń
– o mocy maks. 30 W – w ramach standardu Power over
Ethernet (PoE). Pozwala też na przypisanie do oddzielnej sieci wirtualnej VLAN
urządzeń odpowiedzialnych za przesyłanie głosu i obrazu oraz przyznanie
jej najwyższego priorytetu w ramach polityki Quality of Service.
Firma
ZTE działa na polskim rynku już prawie 10 lat. W tym czasie producent
z powodzeniem realizował duże projekty, takie jak CDMA dla sieci
Polkomtel, „Livebox” dla Orange czy DWDM dla Aero2. ZTE Poland to lider
sprzedaży produktów wykorzystywanych do budowy sieci FTTH na całym świecie.
Przez ostatnie dwa lata z użyciem sprzętu ZTE zostało zrealizowanych ponad
trzydzieści projektów GPON w Polsce.
Globalnie ZTE zatrudnia 70
tys. pracowników w 160 krajach. Jest właścicielem 19 ośrodków R&D
i zarejestrowało 17 tys. patentów (w latach 2011–2012 ZTE zgłosiło
najwięcej wniosków patentowych na świecie, a w 2013 r. zajęło
drugą pozycję w tym rankingu). Producent rozwija i wdraża szereg
innowacyjnych projektów technologicznych obejmujących takie dziedziny jak:
inteligentne miasta (smart cities), inteligentny transport (smart
transportation), e-zdrowie, mobilne płatności.
Przemysław Kucharzewski
Eptimo
podpisało umowę dystrybucyjną z ZTE pod koniec 2014 r. W naszej
ofercie znalazły się produkty biznesowe, od najprostszych rozwiązań biurowych
po urządzenia wykorzystywane przy projektach większych sieci
teleinformatycznych. W pierwszym kwartale 2015 r. wprowadziliśmy do
oferty przełączniki oraz szerokie portfolio urządzeń sieciowych
i biurowych, m.in. routerów, transmiterów sieciowych, modemów
bezprzewodowych oraz rozwiązań do zunifikowanej komunikacji, w tym
zestawów do wideokonferencji i telefonii IP.
Więcej
informacji:
Michał
Kwiatkowski, Senior Product Manager Networking,
michal.kwiatkowski@eptimo.com
Artykuł Rozwiązania sieciowe ZTE dla chmur obliczeniowych pochodzi z serwisu CRN.
]]>Artykuł Gwarantowane zasilanie zapewnia ciągłość biznesu pochodzi z serwisu CRN.
]]>Zaletą produktów
francuskiej marki jest też bardzo wysokiej jakości elektronika kontrolująca
pracę zasilaczy. Urządzenia są w stanie osiągnąć efektywność na poziomie
95 proc., co prowadzi do znaczącej oszczędności energii.
Zaletą zasilaczy modułowych Legrand jest prostota
serwisowania. Specjalista może się dostać do podzespołów od przodu urządzenia
za pomocą jednego narzędzia. W przypadku awarii jednego z modułów
redundancja zapewnia nieprzerwaną ciągłość zasilania. Usuwanie usterek
i wymiana baterii może odbywać się bez przerywania działania sprzętu przy
użyciu niewielkiego zestawu części zamiennych. Rozdział mocy odbywa się dzięki
równoległej pracy modułów na każdej z faz.
ARCHIMOD jest zasilaczem o mocy od 20 do
120 kVA, umieszczonym w szafie przemysłowej. Został zaprojektowany
tak, aby uprościć i przyspieszyć procesy projektowania oraz montażu
w obiektach, w których zostanie zastosowany.
TRIMOD to modułowy zasilacz o mocy od 10 do
60 kVA, mający stosunkowo
niewielkie wymiary. Konstrukcja umożliwia łączenie pojedynczych modułów
w celu uzyskania żądanej konfiguracji wejścia/wyjścia jedno-
i trójfazowego.
Zasilacze MEGALINE
są instalowane w szafach pojedynczych oraz przemysłowych i zapewniają
moc od 1,25 do 5 kVA. Można w nich umieścić maksymalnie cztery moduły
mocy i cztery zestawy bateryjne. Dodatkowe baterie montowane są
w łatwo przyłączalnych specjalnych szafach. Serię MEGALINE uzupełniają
produkty składające się z dwóch szaf: w jednej można umieścić maks.
osiem modułów mocy (1250 VA każdy, co daje w sumie 10 kVA),
a w drugiej maks. dziesięć zestawów bateryjnych oraz ładowarkę.
Sebastian Janowski
UPS-y
firmy Legrand, zainstalowane w kilku szafach przemysłowych, mogą być zarządzane
z centralnego punktu. Zapewniają wysoki poziom bezpieczeństwa, doskonałą jakość
napięcia zasilającego oraz baterie hot-swap. Rozwiązania te charakteryzuje
doskonały stosunek jakości do ceny.
Oferowane przez Legrand konwencjonalne zasilacze UPS
o mocach do 10 kVA gwarantują bezpieczne i niezawodne zasilanie
precyzyjne. Czytelny wyświetlacz umożliwia intuicyjne zarządzanie sprzętem, aby
użytkownik nie miał problemu z wyborem najlepszych parametrów związanych
z przetwarzaniem energii i wydajnością. Wszystkie urządzenia są
dostępne w wersji wieżowej i do montażu w szafie przemysłowej.
DAKER DK to zasilacz on-line o podwójnej
konwersji. Dostępny w trzech standardowych rozmiarach o mocy od
1 do 10 kVA. W zależności od wymaganej mocy i czasu
podtrzymania dostępne są zasilacze oraz panele bateryjne o wymiarach od 2U
do 4U.
Zasilacz WHAD o podwójnej konwersji jest idealny
do stosowania w instalacjach o małej i średniej wielkości.
Dzięki kompaktowej konstrukcji UPS WHAD zajmuje bardzo mało miejsca. Zapewnia
zasilanie o mocy od 0,8 do 6 kVA.
Zmniejszone wymiary zasilaczy DHEA (głębokość
185 mm)ułatwiają umieszczenie ich w niewielkich przestrzeniach.
Standardowe elementy i możliwość szybkiego ich przyłączenia pozwalają na
montaż zasilacza UPS przez osoby bez specjalnych szkoleń. Ponadto istnieje
możliwość wymiany baterii bez konieczności wyłączania zasilania. Oferowany
zakres mocy to 1–1,5 kVA.
Zasilacze UPS line
interactive dzięki niewielkim wymiarom mogą być wykorzystywane do zasilania
stacji roboczych PC oraz innych urządzeń biurowych, jak drukarki czy skanery.
Wyposażone w elektroniczny stabilizator, diody sygnalizujące oraz
zabezpieczenie linii telefonicznej, zapewniają całkowitą ochronę podłączonych
urządzeń.
Zasilacz NIKY to
optymalne rozwiązanie z zakresu bezpieczeństwa danych przechowywanych
w małej firmie lub na komputerze domowym. Zaopatrzony jest
w mikroprocesor, wbudowany regulator napięcia i interfejs
komunikacyjny. Oferowany zakres mocy: od 0,6 do 1,5 kVA.
Natomiast NIKY S to zasilacz z napięciem
wyjściowym sinusoidalnym. Wyświetlacz i diody sygnalizacyjne pozwalają na
monitorowanie pracy zasilacza w czasie rzeczywistym. Oferowany zakres
mocy: od 1 do 3 kVA.
Piotr Piepiórka
Cechą szczególną zasilaczy
modułowych ARCHIMOD jest odporność na każdy pojedynczy krytyczny punkt awarii.
Zasilacze same
z siebie nie są w stanie zapewnić stuprocentowej ochrony urządzeń do
nich podłączonych. Składa się na to wiele czynników: baterie ulegają powolnej
degradacji, nieprawidłowa praca dołączonych urządzeń może spowodować
niestabilną pracę zasilacza, a często też dochodzi do błędów ludzkich związanych
z obsługą serwisową. Dlatego konieczne jest sprawowanie stałej kontroli
nad infrastrukturą posiadanych przez firmę zasilaczy awaryjnych.
Legrand zapewnia dwa sposoby sprawowania nadzoru nad swoimi
zasilaczami. W pierwszym nadzór nad stanem UPS-a sprawuje oprogramowanie
zainstalowane na stacji roboczej lub serwerze, do których bezpośrednio
podłączony jest zasilacz. Druga metoda uwzględnia komunikację przez sieć
lokalną lub Internet – dzięki temu przestaje mieć znaczenie odległość od
UPS-a do stacji, z której sprawuje się nadzór.
Producent udostępnia cztery pakiety oprogramowania
zarządzającego do swoich zasilaczy UPS:
• UPS
Communicator – grupa aplikacji umożliwiających ciągłe monitorowanie
pracy UPS-a i ochronę systemu operacyjnego (wyłączenie, uruchomienie
konkretnej aplikacji, wysłanie e-maila itp.) w przypadku przejścia
w tryb zasilania bateryjnego. Dane przesyłane są przez port RS232.
Oprogramowanie UPS Communicator można pobrać bezpłatnie ze strony
www.ups.legrand.com w wersji dla systemu Windows i Linux.
• UPS Management Software – rozbudowana, płatna
wersja pakietu UPS Communicator. Dostępna nie tylko dla platformy x86, ale
także na procesory Alpha i Itanium oraz dla systemów Linux, Unix, Novell
Netware i Mac OS X 10.x. Zawiera jedną licencję oprogramowania UPS RCCMD.
• UPS RCCMD – oprogramowanie, które umożliwia zasilaczom
przesyłanie na komputer poprzez protokół TCP/IP komend wymuszających zamknięcie
systemu operacyjnego, wyświetlenie komunikatu czy uruchomienie określonej
aplikacji. Możliwe jest definiowanie zachowań warunkowych, np. rozpoczęcie
zamykania systemu tylko wtedy, gdy taki sygnał przyjdzie z minimum dwóch
zasilaczy. Oprogramowanie jest kompatybilne z 99 proc. systemów
operacyjnych dostępnych na rynku (włącznie z AS/400 i rozwiązaniami
wirtualizacyjnymi), a także działa na różnych platformach procesorowych,
m.in. Intel, PowerPC, Alpha.
• UPS UNMS (UPS
Network Management System) –
aplikacja dostępna przez interfejs web, pobierająca dane z zasilaczy
poprzez protokół TCP/IP. Jest w stanie kontrolować urządzenia znajdujące się
w różnych lokalizacjach. W przypadku wystąpienia problemu
w jednym z monitorowanych zasilaczy system może wyświetlić komunikat,
wysłać e-mail lub uruchomić wskazaną aplikację. Podstawowa wersja UPS UNMS jest
bezpłatna i umożliwia kontrolę do dziewięciu zasilaczy.
Więcej
informacji:
Sebastian
Janowski, Product Manager UPS, M2M,
sebastian.janowski@eptimo.com
Artykuł Gwarantowane zasilanie zapewnia ciągłość biznesu pochodzi z serwisu CRN.
]]>Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.
]]>
RISC – nic nie trwa wiecznie
We współczesnej informatyce oszczędności w części
infrastrukturalnej uzyskujemy na trzy różne sposoby:
– przez wymianę technologii droższych na tańsze,
– obniżając opłaty za wsparcie i utrzymanie,
– przez zwiększenie stopnia utylizacji posiadanych urządzeń.
Przez dekady na rynku
serwerów klasy RISC i mainframe panowało przekonanie, że hossa będzie
trwała wiecznie. Na pytanie, dlaczego producenci Unixów i mainframów biorą
więcej za swoje systemy, odpowiadano z przekąsem: „bo mogą”. Recesja
w latach 2001–2003 i potem kryzys w latach 2008–2009 pokazały,
że wspomniany trend to już historia. Producenci nie przespali tego okresu
– musieli się zaadaptować do nowej sytuacji. HP dawno już zrezygnowało z technologii
PA-RISC na rzecz procesorów Itanium. Z kolei Sun Microsystems przez lata
nie rozwijał SPARC-ów i wprowadzał oprócz rozwiązań Intela również
produkty konkurencyjnego AMD. W tym czasie IBM trzymał się twardo
technologii Power, przejmując od konkurencji coraz to większy udział
w rynku serwerów klasy RISC. Ale rynek coraz szybciej się kurczył i –
choć zdawało się, że to potrwa jeszcze chwilę – to w październiku 2014 r.
gruchnęła wieść: upubliczniono umowę z GlobalFoundries, na mocy której GF
przejmie obowiązki producenta, czyli rozwój platformy i produkcję na
następne 10 lat.
Wszystko to musiało się
wydarzyć, bo w sytuacji gdy budżety są stabilne a wymagania rosną,
firmom nie opłaca się płacić za serwery RISC i utrzymywać ich po okresie
gwarancji. Ten model jest zbyt kosztowny i mało elastyczny. Próby
uelastycznienia go, np. za pomocą wprowadzenia metody płacenia on demand, czyli
za rzeczywiste zużycie zasobów, nie dały oczekiwanych rezultatów.
Do takiego rozwoju wydarzeń znacząco przyczyniła się też
chmura obliczeniowa. Zorientowani na biznes decydenci, którym infrastruktura IT
z natury zawsze była obca, odetchnęli z ulgą, gdy dostawcy zaczęli
rozmawiać z nimi o funkcjach biznesowych, rysując przy tym ładne
chmurki. Tym samym przestali zatruwać miłą atmosferę smutnymi opowieściami
o gigabajtach, slotach, linkach i aktywnych rdzeniach.
Żeby jednak to wszystko
mogło się wydarzyć, musiał powstać procesor, który podoła wymaganiom
przeładowanej informacjami bazy danych, obciążonego żądaniami portalu czy też
„zasobożernej” Javy. Stał się nim Intel Xeon. Przez lata procesor ten był
traktowany trochę z pobłażaniem, jako starszy brat popularnego Pentium.
Ale producent uparcie wprowadzał nowe funkcjonalności typu Reliability,
Availability, Serviceability i systematycznie podnosił wydajność, co
sprawiało, że Xeon zyskiwał uznanie coraz szerszej rzeszy użytkowników. Powoli,
ale systematycznie klienci przekonywali się, że low-endowe serwery x86 są coraz
szybsze, coraz bardziej niezawodne i coraz tańsze, a producenci
oprogramowania, wprowadzając High Availability na swojej warstwie, udowodnili,
że płacenie za serwer RISC traci sens. Wymieniliśmy zatem RISC na Intela.
Oszczędziliśmy przy zakupie i na utrzymaniu, bo wyceny usług wsparcia
tańszych serwerów są również niższe. Sposób pierwszy i drugi na uzyskanie
oszczędności został z powodzeniem wykorzystany. Przyjrzymy się trzeciemu.
Kiedy w maju
1999 r. świat zobaczył VMware Workstation – pierwszy produkt do
wirtualizacji – sytuacja była daleka od idealnej. Serwery
o architekturze x86 wykorzystywano średnio w kilkunastu procentach.
Projektowe podejście do wdrażania nowych funkcji oraz trudności
w oszacowaniu ich docelowej wydajności potrzebnej dla coraz to nowszych
wersji oprogramowania też nie służyły rozwiązaniom opartym na infrastrukturze,
którą trzeba było kupić. Na końcu często okazywało się, że serwer pracuje na
ćwierć gwizdka albo jeszcze mniej wydajnie, a zwrotu sprzętu nikt nie
przyjmie. Dzisiaj, po kilkunastu latach, szacuje się, że wskaźnik wykorzystania
przeciętnego serwera x86 sięga (w zależności od badania)
ok. 50 proc.
Dlaczego mimo powszechnej wirtualizacji i sporego
wyboru hypervisorów (również bezpłatnych) nie osiągamy pełnej utylizacji?
Z tych samych powodów co zwykle. Polityka zakupów, podejście per projekt,
przeszacowanie zapotrzebowania na wydajność, rezerwacja miejsca na rozwój
systemu w przyszłości, alokowanie kosztów w różne budżety,
przesunięcie priorytetów z CAPEX na OPEX i za chwilę na odwrót, brak
elastyczności w organizacji itd. Mimo wszystko udało się jednak poprawić
współczynnik utylizacji CPU per serwer i nasze urządzenia pracują nie na
1/10, ale na pół gwizdka. Sposób trzeci wykorzystany. Oszczędności wydamy na
coraz to droższe smartfony, których nowe edycje różnią się głównie kolorem i…
celebrytą w telewizyjnej reklamie.
Obserwując statystyki
sprzedaży, można zobaczyć, że kilka lat temu powstał zupełnie nowy segment na
rynku serwerów, który analitycy nazwali high-end x86. W dodatku jest to
segment, który rośnie najszybciej. Słów kilka, skąd się wziął i po co.
Otóż nie można bezrefleksyjnie wyrzucić wszystkich RISC-ów z serwerowni
i bezkrytycznie przesiąść się na chmurę, nawet prywatną. Są rozwiązania,
które z trudem znoszą architekturę typu scale-out, czyli rośnięcie wszerz.
Dokładanie co chwilę nowego serwera jest, owszem, łatwe i przyjemne.
Jednak pojawianie się rozwiązań wymagających dużo pamięci RAM w obrębie
jednej maszyny (Big Data, BI) lub po prostu potrzeba posiadania ogromnych baz
danych (rosnących za sprawą coraz większej ilości gromadzonych informacji np.
w systemach klasy CRM lub ERP) spowodowało, że zatrzymaliśmy się
w pół kroku.
Pozostaje jeszcze kwestia
wysokiej dostępności. Rozwój rozwojem, ale z dużą dozą pewności powiedzieć
można, że serwery wykorzystujące układy Intela nigdy nie zapewnią takiego
poziomu High Availability jak np. IBM-owe maszyny typu Power. Powód jest
prosty: IBM, HP i Oracle kontrolują tzw. pełny stack, czyli serwer,
wirtualizator i system operacyjny. Tymczasem wysoka dostępność to
zagadnienie interdyscyplinarne. Wyłączenie uszkodzonego zasobu sprzętowego musi
być obsłużone przez hypervisor i – w zależności od konfiguracji –
widoczne i możliwe do obsłużenia lub całkowicie transparentne dla systemu
operacyjnego. Intel produkuje procesory dla wszystkich i wszyscy produkują
oprogramowanie współpracujące z ich architekturą. W tej sytuacji nie
można zakładać, że np. obsługiwana bez problemu w serwerach
z procesorami Power funkcja CPU-offline będzie działała bez problemów
z VMware, Hyper-V, Linuksem, Windows i setką innych rozwiązań
pracujących na Intelu. Zbliżamy się powoli do ideału, ale lista wyjątków będzie
rosła, a matryca kompatybilności staje się coraz bardziej skomplikowana.
Jest też kwestia wirtualizacji. Mimo wieloletnich wysiłków
i systematycznego wypuszczania nowych wersji najpopularniejszego
wirtualizatora firmy VMware, czyli vSphere, administratorzy PowerVM
(wirtualizator dla serwerów AIX) mogą w dalszym ciągu patrzeć
z pobłażaniem na swych kolegów z pokoju obok.
Wykorzystanie serwerów RISC jest nieporównywalnie większe
niż serwerów x86. Oczywiście jest to m.in. spowodowane ceną, bo nie tak łatwo
kupić nowy serwer lub urozbudowywać już posiadany z racji wysokich cen na
rynku komercyjnych Unixów. Wykorzystuje się więc to, co się ma, do samego
końca. Jest to jednak też pochodna architektury scale-up, czyli możliwości
wygodnego podziału jednej puli na mniejsze maszyny wirtualne, logiczne partycje
czy jak kto tam sobie w dziale marketingu to nazwał. Odpowiedź na pytanie,
czy wygodniej jest mieć jeden duży serwer i dzielić go przy pomocy jednego
hypervisora na mniejsze kawałki czy też mieć kilkaset serwerów, kilkaset
hypervisorów i dzielić te małe części na jeszcze mniejsze – jest
raczej oczywista.
Co zatem robić? Powrócić
do RISC-ów? Za drogo. Ten etap mamy już za sobą, choć są miejsca, gdzie jeszcze
przez lata będziemy widzieć na ekranach konsol znaczek AIX lub Solaris.
Historia odchodzących od 20 lat do lamusa mainframe’ów powtórzy się również w tym
przypadku. Powstało zatem rozwiązanie pośrednie. Oparte na procesorach Intel
z serii E7, wyposażone w możliwości RAS zbliżone do możliwości
serwerów RISC, oferujące gigantyczną wręcz wydajność w obrębie fizycznej
maszyny, dysponujące setkami rdzeni i terabajtami pamięci RAM, gotowe do
współpracy z wirtualizatorami i systemami operacyjnymi różnych marek.
Rozwiązanie w pewnym sensie niszowe, bo low-end x86 będzie dominował
w dalszym ciągu, ale obserwując wzrostowy trend i wartość tej niszy,
która w samej Europie szacowana jest na 700 mln dol., jestem dziwnie
spokojny, że będzie jeszcze okazja do porozmawiania na jego temat.
Benchmark najszybszego na świecie serwera x86 można
obejrzeć tutaj:
www.spec.org/cpu2006/results/res2014q4/cpu2006-20140929-31841.html. Serwer
w najbogatszej konfiguracji ma 240 rdzeni (skalowalny modułowo od min. 12
rdzeni w górę przy zachowaniu liniowego wzrostu wydajności), 24 TB
RAM i 56 slotów PCIe. Karty PCIe i RAM można wymieniać metodą hot
swap, a zaimplementowany mechanizm izolacji błędów sprawia, że za cenę
z intelowej półki mamy serwer zbliżony możliwościami do klasy RISC.
Pamiętacie o potrzebie oszczędzania na trzy sposoby? To właśnie ta
platforma jako jedyna daje szansę na skorzystanie z nich wszystkich jednocześnie.
Więcej
informacji:
www.bull.com/bullion
Jacek
Połczyński, Product Manager Storage & Servers,
jacek.polczynski@eptimo.com
Artykuł Więcej za mniej, czyli ewolucja platform serwerowych…w lekko ironicznej pigułce pochodzi z serwisu CRN.
]]>Artykuł Allied Telesis rozwiąże problemy z zarządzaniem sieciami SDN pochodzi z serwisu CRN.
]]>Taka architektura systemu pozwala na stosowanie odrębnych
procesów oprogramowania (modułów) do wykonywania różnych czynności, takich jak
zarządzanie, routing czy sprawowanie funkcji kontrolnych. Każdy z modułów
ma przypisany wyłącznie dla siebie fragment pamięci operacyjnej urządzenia,
dzięki czemu jest chroniony przed ewentualną nieprawidłową pracą innego modułu,
w wyniku której mogłoby np. dojść do przepełnienia bufora
i – w efekcie – zawieszenia całego systemu. Same moduły,
mimo że działają niezależnie od siebie, oczywiście stale komunikują się ze
sobą, wymieniając potrzebne informacje. Administratorzy mogą wprowadzać zmiany
konfiguracyjne do urządzeń działających pod kontrolą systemu AlliedWare Plus
przy pomocy efektywnego interfejsu linii komend, ale do ich dyspozycji jest też
interfejs graficzny, dostępny przez przeglądarkę internetową.
Urządzenia z Allied Telesis Management Framework
AMF jest dostępny w następujących produktach Allied
Telesis działających pod kontrolą systemu operacyjnego AlliedWare Plus:
• modularne przełączniki rdzeniowe SwitchBlade
x8100,
• zaawansowane przełączniki modularne
warstwy trzeciej SwitchBlade x908,
• zaawansowane przełączniki warstwy trzeciej
x900,
• zaawansowane przełączniki warstwy trzeciej
x610,
• gigabitowe przełączniki warstwy trzeciej x510,
• przełączniki do monitoringu wizyjnego IX5–28GPX,
• przełączniki dostępowe x310,
• gigabitowe przełączniki dostępowe x230,
• gigabitowe przełączniki brzegowe x210.
Od lat administratorzy skarżą się, że zarządzanie
ustawieniami konfiguracyjnymi sieci to żmudna praca, w trakcie której znacznie
rośnie ryzyko popełnienia błędów. Ogromną ilość czasu i wysiłku wymaga
wprowadzanie danych konfiguracyjnych. Podobnie jest z zarządzaniem ich
kopiami, do których dostęp jest konieczny w przypadku wymiany urządzenia
na nowe. W odpowiedzi na te wyzwania Allied Telesis opracowało rozwiązanie
Allied Telesis Management Framework – rozbudowany pakiet protokołów
i narzędzi upraszczających centralne zarządzanie siecią jako jednym
wirtualnym urządzeniem. Obsługa odbywa się za pomocą prostego
i intuicyjnego interfejsu linii komend. Oprogramowanie dba o to, aby
automatycznie i regularnie wykonywać kopię ustawień konfiguracyjnych oraz
plików z firmware’em. Dzięki temu w przypadku wymiany urządzenia na
nowe (np. po jego awarii) tuż po fizycznym podłączeniu do sieci bardzo szybko i
automatycznie jest ono przygotowywane do pracy. Kopię ustawień można też
sporządzić ręcznie, zaraz po wprowadzeniu zmian konfiguracyjnych.
W tradycyjnych sieciach
każde nowe urządzenie podłączane do infrastruktury musi być odpowiednio przygotowane
– mieć wprowadzone ustawienia konfiguracyjne i być przetestowane.
Podłączenie nieskonfigurowanego urządzenia i zmiany jego ustawień w trybie
online są ryzykowne i mogą spowodować nieprzewidziane zachowanie innego
sprzętu sieciowego.
Dzięki Allied Telesis
Management Framework nieskonfigurowane urządzenia mogą być podłączane
bezpośrednio do sieci od razu po wyjęciu z pudełka. Oprogramowanie zadba
wówczas o ich odpowiednie przygotowanie do pracy w trybie
produkcyjnym. Jeżeli będzie to możliwe, automatycznie przypisze mu ustawienia
konfiguracyjne, bazując na wykonanych kopiach z innych urządzeń. Będzie
też izolować nowy sprzęt od pozostałych elementów infrastruktury sieciowej do
czasu, gdy administrator podejmie decyzję o pełnym wdrożeniu go do systemu
sieciowego. Takie podejście znacznie ułatwia proces rozbudowywania sieci a
także ogranicza ryzyko popełnienia błędu.
Co ciekawe, AMF umożliwia
równoległe konfigurowanie wielu urządzeń na raz z poziomu linii komend.
Dzięki temu administratorzy nie muszą wielokrotnie powtarzać tej samej
czynności, a równocześnie zostaje zminimalizowane ryzyko wprowadzenia
niepoprawnych zmian konfiguracyjnych. W podobny sposób zapewniony jest
monitoring stanu infrastruktury – raz wprowadzona komenda jest wykonywana automatycznie
na wielu urządzeniach, a efekt jej działania przedstawiany w postaci jednego,
skonsolidowanego raportu. Na tej samej zasadzie możliwa jest równoległa
aktualizacja firmware’u w wielu urządzeniach sieciowych.
Program
lojalnościowy STAR
Allied Telesis prowadzi program lojalnościowy Star Partner,
w ramach którego zarejestrowani użytkownicy mogą gromadzić punkty nie
tylko za kupowanie promowanych produktów Allied Telesis, lecz także za bycie
aktywnym członkiem portalu partnerskiego. Zgromadzone punkty można wymieniać na
prezenty z katalogu.
Michał Kwiatkowski
Dzięki
sprzedaży rozwiązań Allied Telesis integratorzy zyskują przede wszystkim wysoką
marżę, zadowolenie klientów oraz pewność poprawnej pracy wdrożonego systemu.
Niezawodność urządzeń sięga 99,5 proc., co jest trudno osiągalnym wynikiem
w przypadku konkurencyjnych rozwiązań. Eptimo, jako autoryzowany
dystrybutor z wartością dodaną,
zapewnia
kompleksowe wsparcie oraz dostępność produktów. Przejrzyste zasady współpracy
ułatwiają realizację wspólnych projektów i zapewniają wysoki zysk.
Firma operatorska Multimedia Polska jest jednym z pierwszych
w Polsce usługodawców, który zainstalował pełną infrastrukturę IP opartą
na standardzie Triple Play (telewizja, telefon i Internet na jednym
kablu), łącząc tym samym kilka dużych miast. Obecnie jest jednym z kilku
większych użytkowników rozwiązań Allied Telesis w Polsce.
Operator chciał zbudować
infrastrukturę, która miałaby zasięg ogólnokrajowy. Dodatkowo niezbędna była
bardzo duża przepustowość, aby zapewnić trnasmisję wideo w wysokiej
rozdzielczości oraz bezproblemowe przesyłanie dużych ilości danych. Utrzymanie
sieci w dobrym stanie wymagało rozmieszczenia podobnych produktów
w wielu lokalnych placówkach, co miało na celu osiągnięcie ogólnokrajowego
zasięgu sieci przy minimalnym nakładzie pracy. Rozwiązanie miało być również
kompatybilne z działającą w infrastrukturze Multimedia Polska siecią
szkieletową SDH, aby można było objąć zasięgiem wszystkie miasta.
Co więcej, operatorowi
zależało, aby wymienione powyżej wymagania zostały spełnione przez rozwiązanie
dostępne w relatywnie niskiej cenie, co zapewniłoby stosunkowo szybki
zwrot kosztów inwestycji. Z tego względu zdecydowano się na rozwiązanie
oparty routingu transmisji w trybie multicast, który umożliwia emisję
wszystkich kanałów TV razem a odbiór przez abonenta jednego lub kilku z nich na
raz . Taki wybór pozwolił na zmniejszenie ruchu i jednoczesne uproszczenie
infrastruktury sprzętowej. Oznaczało to, że wybrane routery musiały być zgodne
z protokołem IGMP i gotowe do routingu pakietów multicast przy bardzo
dużym obciążeniu, ale z zachowaniem wysokiej jakości. Było to szczególnie
ważne w przypadku strumieni telewizyjnych HD.
Po zapoznaniu się
z ofertą kilku producentów oraz porównaniu ich ofert zespół Multimedia
Polska wybrał dwa produkty z proponowanych przez Allied Telesis
zaawansowanych przełaczników warstwy trzeciej. Gigabit Ethernet na każdym
porcie w tych wielofunkcyjnych przełącznikach zapewniła stabilność w działaniu
sieci. Przełączniki te mogą być również stosowane przy innego typu projektach,
które wymagają stale rosnących przepustowości. Dzięki wydajności
i elastyczności rozwiązania urządzenia te znajdują zastosowanie m.in.
u dostawców usług, a także w instytucjach rządowych,
przedsiębiorstwach, placówkach edukacyjnych, a także ośrodkach medycznych.
Tomasz Odzioba
Allied Telesis
stale rozwija ofertę i wprowadza nowe, innowacyjne funkcje do swoich urządzeń,
które są doceniane przez ekspertów. Niedawno rozwiązanie Allied Telesis
Managment Framework otrzymało nagrodę iCMG Architecture Award of Excellence
2014 w kategorii infrastruktura IT. Wierzymy, że systemy te spełnią oczekiwania
także integratorów współpracujących z Eptimo oraz ich klientów.
Więcej
informacji:
Michał
Kwiatkowski, Senior Product Manager Networking,
michal.kwiatkowski@eptimo.com
Artykuł Allied Telesis rozwiąże problemy z zarządzaniem sieciami SDN pochodzi z serwisu CRN.
]]>Artykuł Firmowy atlas chmur pochodzi z serwisu CRN.
]]>Dzięki temu rozpoczynające
działalność start-upy mogą skupić się na możliwie najszybszym dostarczeniu
klientom nowatorskich produktów czy usług, nie zajmując się w ogóle
infrastrukturą niezbędną do uruchomienia biznesu. Łatwo też dopasować zasoby do
rosnącego popytu. Z kolei małym i średnim przedsiębiorcom chmura
w znaczący sposób ułatwia konkurowanie z dużymi przedsiębiorstwami,
zmniejszając bariery wejścia związane z zakupem drogich narzędzi
i technologii. Korzystając z chmury, przedsiębiorcy mogą więc skupić
się na podstawowych procesach biznesowych.
Najważniejsze korzyści
płynące z wdrożenia rozwiązań chmurowych
• obniżenie kosztów,
• zwiększenie wydajności,
• przyspieszenie
wdrożenia nowych usług lub opracowania produktów,
• skalowalność
systemów IT,
• możliwość wejścia w
nowe obszary biznesowe.
Jeśli chodzi o duże przedsiębiorstwa to szczególnie
istotna jest możliwość wykorzystania bazujących na usługach w chmurze
rozwiązań do pracy grupowej, z których
można również korzystać za pośrednictwem urządzeń mobilnych. Tego typu systemy
w znaczący sposób podnoszą efektywność pracowników i jednocześnie
uwalniają zasoby (ludzkie i sprzętowe), które można zaangażować do
zapewnienia bezawaryjnej pracy krytycznych systemów korporacji. Tak znaczące
przeniesienie akcentów w biznesie z reguły przynosi wymierne zyski
i to one właśnie leżą u podłoża zainteresowania przedsiębiorców
wykorzystaniem usług chmurowych.
W dużych przedsiębiorstwach i korporacjach
najczęściej wykorzystywanymi rozwiązaniami są chmury prywatne i hybrydowe,
które wymagają jednak pewnych inwestycji w sprzęt. Oszczędności uzyskuje
się tutaj dzięki konsolidacji i centralizacji rozwiązań. Istotne są też:
uzyskanie wysokiego stopnia upakowania sprzętu, jego równomiernego obciążenia
zadaniami obliczeniowymi i wysoka utylizacja posiadanych zasobów
informatycznych. Dzięki temu użytkownik może osiągnąć znacznie lepszy zwrot
z inwestycji i uzyskać niższe całkowite koszty posiadania TCO.
Modele chmury
Obecnie usługi chmurowe
dostarczane są w czterech podstawowych modelach. Pierwszy z nich to IaaS
czyli Infrastructure as a Service. W tym modelu klient wykupuje usługę polegającą na dostarczeniu
mu jedynie wirtualnej infrastruktury IT, która zapewni wymaganą moc
obliczeniową i zasoby. Użytkownik ma tutaj pełną kontrolę nad zasobami
informatycznymi firmy, ale nie musi utrzymywać własnych urządzeń IT.
Drugi z modeli to PaaS – Platform as a Service.
Tutaj oprócz zasobów sprzętowych z chmury dostarczana jest platforma
systemowa wraz z mechanizmami związanymi z zarządzaniem oraz
platforma binarna wykorzystywanych aplikacji, np. bazy SQL, środowiska Java czy
PHP.
Najczęściej
wykorzystywanym modelem jest SaaS
– Software as a Service. Jest to kompleksowe rozwiązanie, w którym klient kupuje usługę
polegającą np. na dostępie do ściśle określonego oprogramowania. Może to być
sklep internetowy, system CRM lub ERP, oprogramowanie biurowe, system CAD itp.
w tym przypadku użytkownik nie utrzymuje ani infrastruktury, ani środowiska
uruchomieniowego, ani też nie instaluje poszczególnych aplikacji – robi to
usługodawca. Co ważne, użytkownik nie kupuje również danego programu na
własność, ale nabywa jedynie prawo do jego użytkowania. Model SaaS zakłada
zazwyczaj cykliczne, abonamentowe opłaty za dostęp do programów oraz opłaty za
wykorzystaną w miesiącu moc obliczeniową, jeśli przekroczone zostały
limity przyznane w ramach abonamentu. Ostatnim z modeli usług
chmurowych jest BaaS
– Business as a Service. Polega on na zapewnieniu
klientowi końcowemu kompleksowej obsługi wskazanych procesów biznesowych bez
odniesienia do złożoności rozwiązania IT.
Niezależnie od przyjętego modelu i lokalizacji chmury
z punktu widzenia przedsiębiorstwa istotne jest zapewnienie nieprzerwanego
dostępu do danych i usług, zwłaszcza tych krytycznych. W firmie musi być
też zapewniony właściwy stopień bezpieczeństwa przesyłanych informacji. Innymi
słowy, musi zostać wdrożona odpowiednia polityka bezpieczeństwa a wraz
z nią procedury związane z dostępem do danych i możliwością ich
modyfikacji. Istotny jest też osprzęt sieciowy oraz zapewnienie nieprzerwanego
zasilania.
Przykładem urządzeń podtrzymujących zasilanie chmury mogą
być tu zasilacze modułowe firmy Legrand. Sprzęt ten zamontować można
w szafach stelażowych lub szafach pojedynczych a ich modułowa budowa
umożliwia zwiększenie mocy lub wydłużenie czasu podtrzymania zasilania. Co
ważne, ich montaż odbywa się całkowicie bez użycia narzędzi. W przypadku
awarii jednego z modułów, redundancja gwarantuje nieprzerwaną ciągłość
zasilania. Rozdział mocy odbywa się dzięki równoległej pracy modułów na każdej
z faz. W zależności od modelu możliwy zakres mocy waha się od 1,25 do
120 kVA.
Zaawansowane urządzenia
sieciowe, które również mogą posłużyć do budowy firmowej chmury prywatnej,
chmury hybrydowej lub zapewnią niezawodny dostęp do sieci w dużej firmie
oferuje również Allied Telesis. W ofercie producenta znaleźć można m.in.
serię przełączników SwitchBlade x8100. Jest to o tyle ciekawa konstrukcja,
że – podobnie jak w wypadku serwerów kasetowych – mamy tu do
czynienia z obudową stelażową, w której montuje się nie tyle serwery,
a niezbędne przełączniki sieciowe. Dzięki temu infrastrukturę sieciową
można bardzo łatwo dopasować do potrzeb, a gdy te wzrosną łatwo
przeskalować.
Systemy archiwizacji danych, które można wykorzystać w środowisku
chmurowym opracowała też znana przede wszystkim z przygotowywania BIOS-ów
firma American Megatrends. Produkty tego dostawcy sprzedawane pod marką
StorTrends pozwalają na zbudowanie macierzy pamięci SAN dla środowisk VDI
(Virtual Desktop Infrastructure) stosowanych powszechnie w systemach cloud
computingu.
Klasyczna infrastruktura
sieciowa to w obecnych czasach coraz mniej istotny fragment firmowej sieci
traktowanej jako całość. W wielu firmach istotne jest bowiem zbieranie
danych pochodzących bezpośrednio z produkcji, a następnie
przetwarzanie ich w systemach zarządzania produkcją i przekazywanie
ich do systemów ERP lub analityki biznesowej. W tych zadaniach pomocne są
rozwiązania typu Machine to Machine.
Tego typu narzędziami
zajmuje się wrocławska firma Rhino. Dzięki nim w czasie rzeczywistym
maszyny, urządzenia i obiekty mogą komunikować się między sobą, bez
ingerencji człowieka. Technika M2M idealnie sprawdza się tam, gdzie trzeba
stale kontrolować procesy, zapobiegać przerwom w produkcji, czy
monitorować zasoby firmy. Dane w połączeniu z mocą obliczeniową
chmury można zaprząc nie tylko do sprawniejszego zarządzania produkcją, ale
również do zwiększenia przewagi konkurencyjnej. Firma ma bowiem wówczas
możliwość kontrolowania na bieżąco nie tylko samej produkcji, ale przepływu
materiałów oraz znacznie bardziej elastycznego sterowania procesami
w zależności od spływających zamówień klientów.
Artykuł Firmowy atlas chmur pochodzi z serwisu CRN.
]]>Artykuł Roadshow Eptimo: z małej chmury duży biznes pochodzi z serwisu CRN.
]]>Resellerzy i integratorzy dowiedzą się także, jak dopasować rozwiązania cloud computing do infrastruktury przedsiębiorstwa i co proponować klientom, aby zwiększyć swoje zyski.
– Jesteśmy przekonani, że rozwiązania chmurowe to przyszłość branży IT. Swoim partnerom chcemy pokazać, że warto w nie inwestować. Swoją ofertę opieramy na rozwiązaniach do tej pory mało znanych, ale bardzo zyskownych i pozwalających optymalnie wykorzystać możliwości cloud computingu – zapewnia Przemysław Kucharzewski, COO Eptimo.
Harmonogram roadshow Eptimo:
Leźno koło Gdańska – 13.04.2015
Biedrusko koło Poznania – 14.04.2015
Warszawa – 21.04.2015
Kraków – 22.04.2015
Ślęza koło Wrocławia – 23.04.2015
Więcej szczegółów oraz rejestracja na stronie internetowej: www.eptimo.com/roadshow/.
Patronem medialnym roadshow jest CRN Polska.
Artykuł Roadshow Eptimo: z małej chmury duży biznes pochodzi z serwisu CRN.
]]>