Artykuł Jak rewolucję zamienić w ewolucję? pochodzi z serwisu CRN.
]]>Patrick Schmidt Taka obserwacja jest poprawna, ale
z paroma zastrzeżeniami. To jednak producenci wymyślają nowe rozwiązania.
Czasami przy współudziale klientów, ale czasami bez, bo działy R&D
ambitnych dostawców potrafią pójść daleko poza granice wyobraźni użytkowników.
Wszyscy chcą stworzyć dodatkową wartość. Nie tylko poprzez wymyślenie nowych
rozwiązań, ale także nowych standardów czy sposobów wykorzystania tego, co
klient już posiada.
CRN Zdaje się jednak, że większość klientów już nie
nadąża za tempem rozwoju systemów IT…
Patrick Schmidt Dokładnie tak. Nie jest to zresztą
zjawisko ani nowe, ani niepożądane. W wielu centrach danych naszych klientów
widzimy, że „opuścili” kilka ostatnich cykli innowacji. Nie można ich jednak za
to całkowicie krytykować: zupełnie nowe systemy pojawiają się co 2-3 lata,
podczas gdy średni czas eksploatacji starych to 4-5 lat. Teraz jednak
znaleźliśmy się na dużym „innowacyjnym zakręcie”. Ogromna ilość danych, które
przetwarzamy, zmusiła wszystkich do zmiany podejścia do zarządzania
infrastrukturą i wprowadzenia rozwiązań typu Software-Defined. Teraz wspólnym
zadaniem wszystkich dostawców rozwiązań IT jest pomoc firmom w zrobieniu dużego
kroku i wprowadzeniu do centrów danych warstwy programowej, która ułatwi
zarządzanie infrastrukturą.
CRN Z jakiego typu wyzwaniami to się wiąże?
Patrick Schmidt Przede wszystkim z koniecznością
bardzo skrupulatnej analizy stanu posiadania i określenia ścieżki migracji. Nie
tylko w warstwie technologicznej, ale także, a może nawet przede wszystkim,
biznesowej. Dla części klientów taki „przeskok” o kilka lat w rozwoju
technologicznym może oznaczać małą rewolucję, co – gdyby robili to na bieżąco –
byłoby ewolucją. My jako producenci staramy się natomiast jak najlepiej
wspierać w tym procesie zarówno naszych klientów, jak też partnerów. Rozwijamy
działalność usługową i zatrudniamy kolejnych specjalistów, dzięki którym możemy
zaproponować klientom pełny zakres usług, m.in. migrację baz danych,
projektowanie infrastruktury, audyt warstwy zasilania i chłodzenia.
CRN Ile czasu średnio tak duży skok zabiera klientom?
Patrick Schmidt Tu nie ma reguły, bo za każdym
razem trzeba prowadzić indywidualne analizy. Cały proces z reguły zaczyna się,
gdy w firmie wydarzy się coś ważnego i przedsiębiorstwo nie może już
funkcjonować w taki sposób, jak robiło to dotychczas. Najczęściej zaczyna
brakować pieniędzy, ponieważ budżety IT pozostają na stałym poziomie, a
potrzebnych jest więcej pamięci masowych i mocy do przetwarzania danych,
serwerownia nie mieści już nowego sprzętu lub konieczne staje się wdrożenie
nowej wersji aplikacji… To firma sama musi ocenić ile ma czasu – oczywiście
im jest go mniej, tym bardziej potrzebne jest stanowcze działanie. Ważne jest,
aby pamiętać, że jedna zmiana może wymusić inne i na takie ewentualności też
trzeba się przygotować.
CRN Wielu producentów w branży IT jako odpowiedź na to
wyzwanie przygotowało urządzenia klasy appliance czyli rozwiązania gotowe do
szybkiego wdrożenia. Czy u klienta możliwe jest przeprowadzenie takiej rewolucyjnej
„odnowy” właśnie w ten sposób, czy też konieczna jest klasyczna integracja – system
po systemie?
Patrick Schmidt W prostych środowiskach IT
zastosowanie urządzeń typu appliance może się sprawdzić. Ale w dużych na pewno
nie, zarówno ze względu na niewystarczającą skalowalność, jak też brak
otwartości na integrację z innymi systemami. Tam konieczne jest globalne spojrzenie
na proces zarządzania infrastrukturą IT i dostosowanie jej do wymagań
stosowanych aplikacji, a często też potrzeb konkretnych użytkowników. Przy
obecnej eksplozji ilości danych firmy nie powinny ryzykować kupowania
rozwiązań, których – gdy nagle przyjdzie taka konieczność – nie będą w stanie
szybko rozbudować.
CRN W 2013 r. Cisco kupiło firmę Whiptail, producenta macierzy
z pamięciami flash. Czy – po udanym
wejściu na rynek serwerów – jest to
także próba rozpoczęcia działań związanych z oferowaniem pamięci masowych? Czy
można spodziewać się dalszych przejęć w tym obszarze?
Patrick Schmidt Nic mi nie wiadomo o planach
przejęcia jakiegoś większego dostawcy pamięci masowych. Natomiast firmę
Whiptail kupiliśmy, żeby oferowane przez nią rozwiązania móc integrować z
naszymi serwerami. Była to poniekąd nasza odpowiedź na coraz bardziej
zauważalny trend w konstruowaniu systemów IT. Polega na tym, że aby
przyspieszyć dostęp do danych na potrzeby wirtualnych desktopów czy projektów
Big Data, pamięci masowe trzeba jak najbardziej zbliżyć do serwerów. Przyszłość
modelu, w którym wszystkie dane będą scentralizowane, wydaje się wątpliwa…
CRN Jak to? Przecież od kilkunastu lat to właśnie
sieci Storage Area Network, gdzie na potrzeby komunikacji serwerów z macierzami
dyskowymi tworzona jest specjalna infrastruktura, były wskazywane jako
najbardziej wydajne rozwiązanie?
Patrick Schmidt Według badań analityków w 2020 r.
będzie potrzeba 12 razy więcej przestrzeni dyskowej klasy korporacyjnej niż
obecnie. Nie sądzę, żeby firmy zgodziły się na poniesienie tak dużego kosztu. Do
tego dochodzi wspomniana już coraz częstsza konieczność jak największego
przybliżenia pamięci masowych do serwerów. Ze względów wydajnościowych idealnym
rozwiązaniem jest czasem instalacja kart rozszerzeń z pamięciami flash. Dlatego
trzeba założyć, że posiadane przez firmy pamięci masowe ulegną przynajmniej
częściowemu rozproszeniu.
CRN A więc w pewnym sensie historia zatoczy koło, bo
wracamy do modelu z lat 90. ubiegłego wieku?
Patrick Schmidt Tak, ale nadal konieczne jest
sprawowanie pełnego nadzoru nad tymi pamięciami i zgromadzonymi danymi oraz
odpowiednie zabezpieczanie ich, zarządzanie replikacją itd. Dlatego wkrótce coraz
popularniejsze będą rozwiązania klasy Software Defined Storage, które umożliwiają
wgląd we wszystkie zasoby dyskowe – także te zgromadzone bezpośrednio w
serwerach – z jednego, centralnego miejsca. Taka swego rodzaju wirtualizacja
danych wychodzi znacznie taniej, niż inwestowanie w duże macierze dyskowe i
zarządzanie nimi. Ale oczywiście nie oznacza to nagłej, rewolucyjnej zmiany – nadal
będziemy mieli wciąż przecież rozwijany protokół Fibre Channel i sieci SAN.
Artykuł Jak rewolucję zamienić w ewolucję? pochodzi z serwisu CRN.
]]>Artykuł Gartner: jesteśmy na „cyfrowym zakręcie” pochodzi z serwisu CRN.
]]>Kolejnym etapem powinno
być zaplanowanie strategii rozwoju przy założeniu, że celem jest uzyskanie
infrastruktury hybrydowej. Nawet jeśli firma nie korzysta jeszcze
z żadnych usług w chmurze publicznej. Chodzi o to, żeby
infrastruktura teleinformatyczna była jak najbardziej elastyczna. To konieczne
w czasach, gdy trudno przewidzieć tempo rozwoju firmy oraz ilości danych,
którymi będzie ona zarządzać. Dlatego też infrastruktura musi być gotowa na
możliwość szybkiego dodawania zasobów (serwerów, pamięci masowych, systemów
ochronnych). Zarówno we własnym lub zewnętrznym centrum danych (tzw. wyniesiona
chmura prywatna), jak i w chmurze publicznej.
Analitycy Gartnera zaobserwowali, że w centrach danych
na całym świecie panuje pewna dwubiegunowość (ang. bi-modal datacenter).
Charakteryzuje się obecnością zarówno systemów funkcjonujących w starym,
tradycyjnym modelu – bez warstwy ułatwiającej zarządzanie
i rozbudowywanie – jak też nowoczesnych rozwiązań, które
w prosty sposób mogą być rozszerzane bądź łączone z zasobami
znajdującymi się poza firmowym centrum danych. Według Gartnera
w 2017 r. na świecie aż 75 proc. działów IT w firmach
będzie funkcjonowało w modelu rozdwojonym. Zdaniem analityków ocenianie
posiadanych zasobów z podziałem na dwa bieguny jest konieczne.
W przeciwnym razie znacznie trudniejsze będzie wskazanie „wyspowych”
systemów do ewentualnej rozbudowy lub wymiany w przyszłości.
Jednak taki dwubiegunowy
model rodzi też wyzwania. Zupełnie różne są style zarządzania systemami
funkcjonującymi w obu opisanych modelach. To oznacza, że pracownicy
działów IT będą musieli przejść odpowiednie szkolenia. Dla integratorów ważne
jest też to, że niektóre zasoby IT mogą być udostępniane w modelu
usługowym – zarówno z własnego centrum danych, jak i należącego
do firmy trzeciej. Warto zatem zastanowić się nad zbudowaniem portfolio takich
usług już teraz.
Analitycy podkreślają, że
rozwój systemów zarządzania informacją w firmie nie powinien dotyczyć
jedynie sprzętu i oprogramowania. Równie konieczne jest skupienie się na
ludziach i procesach. Wprowadzenie automatyzacji w różnych warstwach
będzie możliwe tylko wtedy, gdy uprawnieni pracownicy będą świadomi
konsekwencji (np. zagadnień prawnych odnoszących się do tego, co można
przechowywać w chmurze publicznej, a czego nie). Kolejny wymóg to
takie przygotowanie funkcjonujących w firmie procesów biznesowych, żeby
nie uniemożliwiały prowadzenia pewnych operacji lub nie były przyczyną tzw.
wąskich gardeł.
Jednym z elementów tego rodzaju cyfrowej rewolucji jest
opracowanie metod pomiaru efektywności pracy systemów teleinformatycznych.
Analiza ta powinna odbywać się zarówno na poziomie technicznym (współczynnik
stopnia wykorzystania serwerów, pamięci masowych, sieci itd.), jak też
biznesowym (dostępność aplikacji dla użytkowników, uzyskane oszczędności na
energii elektrycznej itd.). Taki przejrzysty sposób raportowania zostanie
z pewnością pozytywnie przyjęty przez zarząd każdej firmy.
Przedsiębiorcy będą też
musieli przygotować się do podejmowania dość radykalnych decyzji związanych
m.in. z wyborem dostawców rozwiązań IT. Największym producentom rośnie
konkurencja w postaci wielu start-upów, ponieważ giganci nie zawsze radzą
sobie z nowymi wyzwaniami, przed jakimi stają firmowe działy IT. Należy do
nich m.in. konieczność traktowania sieci rozległej WAN niemal jak sieci
lokalnej (duża przepustowość, małe opóźnienia transmisji), decentralizacja
przechowywanych w firmie danych przy jednoczesnym obowiązku zarządzania
nimi i zabezpieczania przed niepowołanym dostępem. Tego rodzaju problemów
jest znacznie więcej.
Integratorzy
powinni zwracać uwagę na te nowe wyzwania, jakie stoją przez ich klientami
w trakcie planowania swojego rozwoju i rozbudowywania kompetencji.
Coraz bardziej będzie doceniana umiejętność analizy występujących
u klienta procesów związanych z przetwarzaniem danych i zdolność
do ich optymalizacji.
Artykuł Gartner: jesteśmy na „cyfrowym zakręcie” pochodzi z serwisu CRN.
]]>