Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/chmura-prywatna/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Tue, 04 Jun 2019 09:05:00 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Chmura publiczna czy prywatna? https://crn.sarota.dev/artykuly/chmura-publiczna-czy-prywatna/ https://crn.sarota.dev/artykuly/chmura-publiczna-czy-prywatna/#respond Tue, 04 Jun 2019 09:05:00 +0000 https://crn.pl/default/chmura-publiczna-czy-prywatna/ Spór o wyższość jednej chmury nad drugą nie ma końca. By go rozstrzygnąć, zarówno duże korporacje, jak też średnie i małe przedsiębiorstwa muszą pomyśleć o kosztach, kompetencjach swojego personelu technicznego, sprawach kontroli i bezpieczeństwa danych, a ostatecznie także o możliwości wyboru rozwiązania pośredniego, czyli hybrydowego.

Artykuł Chmura publiczna czy prywatna? pochodzi z serwisu CRN.

]]>
Najwięksi dostawcy usług chmury publicznej, czyli Amazon Web Services (AWS), Microsoft Azure i Google Cloud, zachwalają łatwość wdrażania i obsługi środowiska cloud przez internet, modele płacenia tylko za to, czego się używa (pay per use), skalowalność i bezpieczeństwo oraz możliwości analizowania danych, sztucznej inteligencji i uczenia maszynowego. Z kolei dostawcy rozwiązań dla chmury prywatnej wdrażanej on-premise oraz hostowanych usług chmury prywatnej zwracają uwagę na kwestie bezpieczeństwa, zarządzania i zgodności z przepisami. Mówią też o większych możliwościach kontroli i dostosowywania środowiska.

Amerykańska redakcja CRN poprosiła analityków z firm Amalgam Insights, Constellation Research, 451 Research, Gartner oraz Technology Business Research, by wskazali plusy i minusy wdrożeń chmury publicznej i prywatnej. Poniżej publikujemy efekt tych starań.

Która chmura jest tańsza?

Zdaniem Melanie Posey z 451 Research w niektórych przypadkach chmura prywatna może być tańsza od chmury publicznej. Szczególnie wtedy, gdy jest wykorzystywana w wysokim stopniu i nie są istotne korzyści płynące ze skalowania w górę i w dół usług chmury publicznej oraz nie jest potrzebny dostęp do różnych typów maszyn wirtualnych (VM). Hyoun Park z Amalgam Insights uważa wręcz, że w wypadku podstawowych i przewidywalnych potrzeb IT w zakresie przetwarzania oraz składowania danych chmura prywatna zawsze będzie tańsza. To ona, w rękach kompetentnych specjalistów od infrastruktury, okazuje się efektywniejsza, jeśli chodzi o całkowity koszt posiadania.

Przy czym słowem kluczem jest tu „przewidywalność”. W opinii Amalgam Insights, jeżeli organizacja nie potrafi regularnie prognozować skali swoich obciążeń i przetwarzania z dokładnością do 10 proc., powinna wybrać elastyczną opcję chmury publicznej. Dzięki niej będzie w stanie technologicznie nadążać za zmieniającymi się potrzebami firmy.

Sid Nag z Gartnera uważa, że koszt chmury prywatnej jest generalnie wyższy niż chmury publicznej, gdy do tej drugiej przeniesie się tę samą liczbę obciążeń. Zbudowanie własnego centrum danych wymaga dużych nakładów inwestycyjnych (CapEx). Gdy zakupi się komponenty sprzętowe, pamięciowe i sieciowe, to w pełni wykorzystuje się je tylko przez jakiś procent czasu. Używa się ich jedynie wtedy, gdy występuje taka potrzeba, a tymczasem one działają bez ustanku, pobierają energię i wymagają chłodzenia, a do tego dochodzą jeszcze koszty nieruchomości itp.

O ile sprawa kosztów okazuje się złożona, o tyle eksperci wskazują na niezaprzeczalne zalety chmury prywatnej związane z cyberochroną danych. Choć zależy to od kompetencji personelu technicznego, możliwe jest stworzenie w niej dodatkowych opcji bezpieczeństwa, zarządzania, ciągłości i odzyskiwania, które będą wykraczać ponad podstawowe możliwości infrastruktury chmury publicznej.

Chmura prywatna będzie też stanowić dobry wybór wtedy, gdy zajdzie potrzeba uruchomienia starszych aplikacji i systemów operacyjnych, które nie są obsługiwane przez chmury publiczne. Ma wiele do zaoferowania organizacjom, które chcą same dbać o bezpieczeństwo i czują się lepiej, mając wszystko zamknięte we własnym centrum danych. Chcą kontroli nad infrastrukturą, której używają na wyłączność.

 

Uwaga na koszty w chmurze publicznej

Melanie Posey uważa, że można szybko stracić nad nimi kontrolę. Wynika to stąd, że w chmurze publicznej łatwo rozwija się infrastrukturę i usługi, ale równie łatwo jest zapomnieć o ich wyłączeniu. Można też uruchamiać aplikacje, które wykorzystują stworzone zasoby w sposób nieefektywny. W rezultacie – jeśli nie dostosuje się odpowiednio infrastruktury – pod koniec miesiąca rachunek może okazać się zbyt wysoki. Nie mniej ważne są problemy związane z governance i zarządzaniem operacyjnym w środowisku chmury publicznej.

Po przejściu do chmury publicznej mamy do czynienia z zupełnie innym rodzajem środowiska IT niż on-premise. Trzeba samemu ustalić i wprowadzić schemat zarządzania, aby określać, którzy użytkownicy są autoryzowani, z jakimi prawami odczytu i zapisu, kto jest upoważniony do zmian lub dostosowania aplikacji. Dzieje się tak, ponieważ – jak twierdzi specjalistka z 451 Research – brakuje szablonów podpowiadających, co można robić, a czego nie można. Ostatecznie – z wyjątkiem tworzenia i udostępniania infrastruktury – chmura publiczna okazuje się środowiskiem DIY (Do-It-Yourself).

Jeśli chodzi o obawy związane z bezpieczeństwem chmury publicznej, to według Sida Naga mają one przede wszystkim podłoże mentalne. Gartner dysponuje bowiem badaniami dowodzącymi, że obecnie jest ona bezpieczniejsza niż środowiska on-premise. Naruszenia bezpieczeństwa wiążą się zazwyczaj z błędami popełnianymi przez użytkownika – są rezultatem niewłaściwej konfiguracji czy działań niezgodnych z ustaloną polityką bądź procedurami. W odbiorze chmury publicznej nie bez znaczenia jest też opór kulturowy – ludzie boją się, że stracą pracę.

Elastyczność kontra pełna kontrola

Usługi chmury publicznej bardzo łatwo jest kupić i uruchomić. Właśnie to zdaniem Hyouna Parka stanowi główny powód ich atrakcyjności. Czas potrzebny na wprowadzenie produktu na rynek i wdrożenie jest nie do pobicia, bo firmy, takie jak Amazon, Microsoft i Google, mają dostępne na żądanie petabajty pamięci oraz poziom usług, bezpieczeństwa i zarządzania, których uzyskanie mniejszym dostawcom zajęłoby miesiące czy nawet lata. To sprawia, że chmura publiczna jest szczególnie interesująca dla szybko rozwijających się przedsiębiorstw.

Amalgam Insights rekomenduje pozostanie w chmurze publicznej każdemu przedsiębiorstwu, które co roku odnotowuje ponad 30 proc. wzrostu. W takim przypadku koszt wdrożenia odpowiedniej infrastruktury przekroczy korzyści z potencjalnie większej efektywności operacyjnej związanej z przejściem do lokalnej chmury prywatnej. Chmura publiczna okazuje się również świetnym rozwiązaniem, gdy w grę wchodzą dynamicznie zmieniające się obciążenia i potrzeby w zakresie pamięci masowej – nagłe skoki związane z krótkotrwałymi działaniami.

Przewaga chmury publicznej polega także na tym, że jest ona stale aktualizowana. W rezultacie usługi i funkcjonalność są pod względem technologicznym, dostępności i zarządzania zawsze najnowsze. Szybki dostęp do aktualizacji przekłada się też na możliwości integrowania aplikacji użytkowników z takimi elementami platformy PaaS, jak bazy danych, uczenie maszynowe oraz różne mikrousługi, które są natywne w chmurze publicznej.

Zdaniem Holgera Muellera z Constellation Research firmom łatwiej jest inwestować w niektóre najnowsze technologie za pośrednictwem chmury publicznej, bo są one w niej dostępne niemal od ręki. Co więcej, według niego zastosowanie pewnych aplikacji nowej generacji – charakteryzujących się np. intensywnym wykorzystaniem sztucznej inteligencji oraz IoT – ma komercyjne uzasadnienie tylko w chmurze publicznej.

Wobec tylu zalet chmury publicznej jaki jest sens posiadania własnej? Zdaniem Allana Kransa z Technology Business Research najsilniejszym argumentem przemawiającym za prywatną, lokalną chmurą jest to, że organizacja zachowuje kontrolę nad swoimi danymi i działa w znacznie bardziej przewidywalnym środowisku IT. Może to środowisko dostosować i kontrolować rodzaj infrastruktury, na której jest uruchamiane. Decydować, kiedy zostaną wdrożone aktualizacje. Może przydzielać zasoby, zyskując bardziej przewidywalne ceny i wydajność – nawet w godzinach szczytu. W niektórych wypadkach dużą rolę będzie odgrywać sieć, więc lokalna oraz własna może być lepsza dla krytycznych aplikacji.

Takich programów, specyficznych dla swojej biznesowej działalności, firmy mogą nie chcieć przenosić. Wreszcie migracja pewnych obciążeń do chmury publicznej jest po prostu niemożliwa z powodu kwestii zgodności z prawem czy wewnętrzną polityką organizacji.

 

Artykuł Chmura publiczna czy prywatna? pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/chmura-publiczna-czy-prywatna/feed/ 0
Chmura prywatna i publiczna od IBM https://crn.sarota.dev/artykuly/chmura-prywatna-i-publiczna-od-ibm/ https://crn.sarota.dev/artykuly/chmura-prywatna-i-publiczna-od-ibm/#respond Mon, 15 Oct 2018 07:29:00 +0000 https://crn.pl/default/chmura-prywatna-i-publiczna-od-ibm/ Innowacyjna platforma chmurowa firmy IBM łączy wiele usług, dzięki którym możliwe jest udostępnianie użytkownikom nawet najbardziej wymagających aplikacji.

Artykuł Chmura prywatna i publiczna od IBM pochodzi z serwisu CRN.

]]>
Grupa produktów IBM Cloud (wcześniej oferowana pod marką Bluemix) została opracowana z myślą o przedsiębiorstwach każdej wielkości, także małych i średnich. Zapewnia połączenie usług realizowanych z wykorzystaniem firmowej infrastruktury z oferowanymi w chmurze publicznej IBM lub przechowywanymi w centrum danych producenta, pozostającymi wyłącznie do dyspozycji danego klienta (w wyniesionej chmurze prywatnej pod marką IBM Cloud Private). Aby zacząć używać te rozwiązania, często nie trzeba dokonywać żadnych zmian w aplikacjach, strukturze danych i procesach biznesowych.

Wszystkie dane użytkowników przechowywane są w IBM Cloud Data Center. Klient może wybrać, w którym centrum danych będą umieszczone, a także skorzystać z usług dwóch placówek i np. uruchomić replikację swojego środowiska między nimi. Centra danych IBM spełniają rygorystyczne wymogi dotyczące bezpieczeństwa i są zgodne z prawem obowiązującym w krajach, z których pochodzą ich klienci.

IaaS, PaaS i SaaS od jednego dostawcy

Usługami Infrastructure as a Service powinny zainteresować się wszystkie przedsiębiorstwa, które nie chcą mieć własnej serwerowni lub centrum danych albo nie mają wystarczającej przestrzeni na nowe rozwiązania. Dzięki IBM mogą skorzystać z fizycznych serwerów, dostępnych na wyłączność, i maszyn wirtualnych uruchomionych w wydzielonej bądź współużytkowanej infrastrukturze sprzętowej. Usługodawca ponosi pełną odpowiedzialność za warstwę sprzętową, klient odpowiedzialny jest za system operacyjny, aplikacje i dane.

Uruchomienie usługi na standardowym serwerze fizycznym lub w maszynie wirtualnej trwa dosłownie kilka minut. Konfigurację używanego serwera fizycznego można zmieniać – czas potrzebny na ten proces oraz dołączenie urządzenia do globalnej infrastruktury to 2–4 godziny. Rozliczanie za wykorzystane zasoby odbywa się w trybie godzinowym lub miesięcznym. Więcej informacji o charakterystyce usługi IaaS podajemy w tabeli.

Użytkownicy świadczonych przez IBM usług Platform as a Service zyskują dostęp nie tylko do zlokalizowanego w centrum danych sprzętu, ale też zarządzanego przez dostawcę oprogramowania narzędziowego i baz danych, które można wykorzystać do stworzenia konkretnych aplikacji, serwisów internetowych lub świadczenia usług. Dlatego ta oferta skierowana jest przede wszystkim do twórców aplikacji oraz usługodawców internetowych. PaaS zapewnia także aplikacjom dostęp do zasobów chmury, często programiści nie muszą w tym celu dodawać żadnego specjalnego kodu. Dzięki temu rozwiązania określane jako „born on the cloud” zdoła zbudować osoba nieposiadająca specjalistycznych umiejętności.

Bazując na tak stworzonym środowisku, można dołączać do oferty usługi w modelu Software as a Service. Decyzja o stworzeniu każdej z nich powinna być zawsze poprzedzona szczegółową analizą opłacalności nowego rozwiązania i wydajności zasobów przeznaczonych na jego potrzeby. Warto jednak zaznaczyć, że obecnie infrastruktura chmurowa jest idealnym rozwiązaniem do przechowywania udostępnianych przez Internet aplikacji, głównie ze względu na niemal nieskończoną skalowalność.

 

Integratorzy zainteresowani korzystaniem z usług chmurowych IBM powinni zarejestrować się w programie partnerskim producenta, aby uzyskać status IBM Business Partner. Następnie warto zapisać się do serwisu My Sales Activity (MySA), w którym zyskają dostęp do wielu narzędzi sprzedażowych. Wsparcie gwarantują eksperci dystrybutora – firmy Tech Data.

 

Dodatkowe informacje:
Andrzej Bugowski, IBM Business Unit Manager, Tech Data, andrzej.bugowski@techdata.com

 

 

Artykuł Chmura prywatna i publiczna od IBM pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/chmura-prywatna-i-publiczna-od-ibm/feed/ 0
Wirtualizacja i chmura też potrzebują zabezpieczeń https://crn.sarota.dev/artykuly/wirtualizacja-i-chmura-tez-potrzebuja-zabezpieczen/ https://crn.sarota.dev/artykuly/wirtualizacja-i-chmura-tez-potrzebuja-zabezpieczen/#respond Fri, 23 Jun 2017 12:29:00 +0000 https://crn.pl/default/wirtualizacja-i-chmura-tez-potrzebuja-zabezpieczen/ W nadchodzących latach firmy coraz częściej będą łączyć lokalne infrastruktury IT z chmurą publiczną. Za tym trendem będą podążać rozwiązania bezpieczeństwa wirtualizacji, ewoluując w kierunku systemów do ochrony środowisk hybrydowych. Eksperci przewidują znaczny wzrost wydatków na tego rodzaju zabezpieczenia.

Artykuł Wirtualizacja i chmura też potrzebują zabezpieczeń pochodzi z serwisu CRN.

]]>
Od wirtualizacji serwerów jest już tylko jeden krok do chmury. Dlatego warto myśleć perspektywicznie i oferować zabezpieczenia, które zapewniają ochronę środowisk typu cloud. Według Grand View Research światowy rynek bezpieczeństwa chmury będzie wart prawie 14 mld dol. w 2024 r. W zeszłym roku przychody w tym obszarze wyniosły ok. 5 mld. dol.

Spodziewany wzrost na rynku bezpieczeństwa chmury jest związany z rosnącym popytem na rozwiązania służące zabezpieczaniu danych poza granicami firmowych sieci. Przyczyniają się do tego m.in. regulacje prawne nakładające na organizacje określone obowiązki związane z ochroną danych w przypadku korzystania z chmury. W szczególności dotyczy to niektórych branż, np. ochrony zdrowia i sektora finansowego.

Wraz ze wzrostem liczby przedsiębiorstw korzystających z chmury zwiększy się częstotliwość cyberataków i ich zaawansowanie. Przedsmak skali tego zjawiska pokazują zdarzenia z ostatnich dwóch lat, w tym spektakularne ataki na serwisy Ashley Madison, Home Depot, Anthem, a nawet na niektórych producentów zabezpieczeń, np. Kaspersky Lab.

Myśląc o ochronie systemów cloud computingu, warto skupić się przede wszystkim na zabezpieczeniu chmury hybrydowej. Właśnie w tym kierunku będą ewoluować dzisiejsze środowiska wirtualne wykorzystywane przez firmy. W przyszłości mają się bowiem składać z lokalnej, prywatnej infrastruktury IT oraz chmury publicznej. Oba obszary potrzebują zabezpieczonych kanałów komunikacji (np. szyfrowania) oraz zunifikowanego zarządzania. Eksperci z Kaspersky Lab przewidują, że do 2020 r. wydatki na bezpieczeństwo chmury hybrydowej zwiększą się od 2,5 do 3 razy w porównaniu z prognozami na 2017 r.

 

Zabezpieczenia zaprojektowane pod kątem wirtualizacji

Nowoczesne centra danych zmieniają się gwałtownie pod wpływem wirtualizacji, chmury i nowych metod wdrażania aplikacji, jak kontenery. Wiele firm korzystających z wirtualizacji i chmury uważa, że zabezpieczenie tego rodzaju środowisk wymaga zupełnie nowych metod. Jednak w praktyce trudno zauważyć fundamentalne różnice. Wciąż potrzebne są rozwiązania ochronne, które wykorzystuje się w lokalnym środowisku. Powinny być jednak uzupełnione o nowe możliwości, związane z dostosowaniem do dynamicznego charakteru chmury obliczeniowej i koniecznością nadążania za zmianami zachodzącymi w infrastrukturze IT.

 

Wyzwaniem jest poszukiwanie balansu między wydajnością środowiska wirtualnego a jego bezpieczeństwem. Zastosowanie tradycyjnego rozwiązania ochronnego, wykorzystującego tzw. agenty, to zły wybór w przypadku infrastruktury wirtualnej. Używanie takich zabezpieczeń może pozbawić użytkownika większości zalet wirtualizacji w wyniku nadmiernego obciążenia zasobów i ruchu sieciowego. Dlatego najlepiej oferować klientom zabezpieczenia, w których wprowadzono istotną zmianę – działają one bezagentowo (lub z lekkim agentem) dzięki ścisłej integracji z platformami wirtualizacji. W rozwiązaniach bezagentowych funkcje bezpieczeństwa są w całości zaimplementowane na poziomie hypervisora. Z kolei lekki agent to oprogramowanie instalowane w maszynach wirtualnych, który realizuje część podstawowych funkcji typowego agenta. Zadania wymagające większej mocy obliczeniowej są zaś przekazywane do specjalnej maszyny wirtualnej.

Błędem jest przyjmowanie, że zabezpieczenia sprzętowe, które dobrze sprawdzają się w środowisku fizycznym, będą równie dobrze współpracować z maszynami wirtualnymi. Z drugiej strony warto jednak pamiętać, że producenci zabezpieczeń i systemów zarządzania wyposażają je w coraz nowsze funkcje i narzędzia, które są „świadome” wirtualizacji. Zdecydowanie warto więc stosować oprogramowanie emulujące zabezpieczenia fizyczne, które można zainstalować w specjalnie przygotowanych do tego celu maszynach wirtualnych.

 

Wirtualizacja i backup

Kopie zapasowe maszyn wirtualnych można tworzyć, używając produktów do backupu maszyn fizycznych. Wymagają one instalowania agentów w każdym chronionym serwerze. Jednak, podobnie jak w przypadku rozwiązań ochronnych, ubocznym efektem jest poważny narzut. To główny czynnik, który zdecydował, że na rynku pojawiły się narzędzia backupowe specjalnie do ochrony środowisk wirtualnych. Klienci stoją więc przed zasadniczą decyzją: wybrać rozwiązanie stworzone wyłącznie z myślą o wirtualizacji (i używać dwóch różnych systemów – drugiego do ochrony systemów fizycznych) czy raczej system, który potrafi chronić jednocześnie serwery fizyczne i wirtualne. Trudno wskazać, które podejście jest lepsze; często decydującym czynnikiem może po prostu okazać się cena.

Jak zarobić…

Gdy mowa o ochronie środowisk wirtualnych, potencjalnych klientów należy szukać wśród użytkowników najpopularniejszych platform do wirtualizacji (VMware vSphere, Microsoft, Hyper-V, Citrix XenServer/XenDesktop czy KVM). Co istotne, dostępne na rynku rozwiązania mogą być licencjonowane w zależności od liczby chronionych wirtualnych desktopów lub serwerów czy też rdzeni serwerów fizycznych, na których działa środowisko wirtualne.

Ważne jest integrowanie rozwiązań do zabezpieczenia środowisk wirtualnych z całym systemem bezpieczeństwa funkcjonującym w danym przedsiębiorstwie. Użytkownikom umożliwia to uzyskanie pełnej widoczności sieci i zdolności do scentralizowanego zarządzania, co staje się wyzwaniem w coraz mniej fizycznych infrastrukturach. Dzięki integracji zabezpieczeń i infrastruktury klienci mogą szybciej reagować w przypadkach naruszeń bezpieczeństwa. Jeśli zostaną wdrożone odpowiednie mechanizmy automatyzacji, niektóre działania czy zmiany mogą być wprowadzane bez udziału człowieka. Warto zwrócić uwagę na zabezpieczenia, które można integrować z platformami do wirtualizacji.

Kolejnym „źródłem” przychodów jest regulacja RODO. W związku z jej wprowadzeniem klientom można zaproponować usługi audytu infrastruktury. Celem takiego audytu jest analiza, w jakim stopniu poszczególne elementy firmowego środowiska IT są przygotowane na zmiany prawne, oraz wykrycie potencjalnych słabych ogniw w obszarach takich jak: sieć firmowa, centrum danych czy zarządzanie tożsamością i dostępem. Konsekwencją nieprzestrzegania nowego prawa są m.in. surowe kary finansowe.

 

Wirtualizacja daje pewne nowe możliwości w zakresie backupu. Ponieważ maszyna wirtualna to plik, można za jednym razem skopiować zarówno dane, jak i konfigurację danej maszyny. Wówczas podstawowy plik maszyny wirtualnej jest blokowany w celu wykonania jego tzw. kopii migawkowej (snapshot), zaś wprowadzane w tym czasie zmiany związane z aktywnością maszyny są rejestrowane i wprowadzane później do pliku.

Mechanizmy tworzenia kopii zapasowych są wbudowane w hypevisor, ale nie skalują się dobrze i w praktyce najczęściej stosuje się dodatkowe narzędzia, które umożliwiają wykorzystanie wszystkich zalet, jakie daje wirtualizacja w zakresie backupu. Przykładowo świetną funkcją jest przywracanie wybranych obiektów (np. pojedynczych plików) z pełnej kopii maszyny wirtualnej.

 

Problemy użytkowników, które można pomóc rozwiązać

Dużym wyzwaniem dla klientów okazuje się różnorodność ich środowisk IT – najczęściej jest to połączenie serwerów wirtualnych i fizycznych, które wymagają zabezpieczenia. Istotnym ułatwieniem w takiej sytuacji są rozwiązania, które umożliwiają zarządzanie bezpieczeństwem wszystkich serwerów, bez względu na miejsce, w którym się znajdują (serwery fizyczne, wirtualne, chmura publiczna).

Dynamiczna natura wirtualizacji z punktu widzenia bezpieczeństwa stanowi wyzwanie, jeśli chodzi o przypisywanie reguł do maszyn wirtualnych i ich przestrzeganie. Poza tym maszyny wirtualne mogą być modyfikowane sposobami, jakie w przypadku serwerów fizycznych zdarzają się niezwykle rzadko. Przykładowo można bardzo szybko dokonać zmiany interfejsów sieciowych czy grupowania portów, co może sprawić, że wprowadzony wcześniej podział sieci na strefy przestanie funkcjonować. W środowisku wirtualnym można uzyskać pożądany rodzaj izolacji czy podział na strefy, ale trudność sprawia przyporządkowanie wdrożonych reguł do maszyn wirtualnych. Należy zatem oferować rozwiązania, które ułatwią zarządzanie regułami sieciowymi i będą współpracować z hypervisorami, co da im wgląd w środowisko wirtualne. Myśląc długofalowo, warto wybierać zintegrowane rozwiązania, które lepiej „wiążą” reguły bezpieczeństwa z maszynami wirtualnymi.

Zdaniem integratora

Aleksander Jagosz, kierownik Wydziału Rozwiązań IT, Integrated Solutions

Skuteczne zabezpieczenie środowiska wirtualnego wiąże się z szeregiem nowych wyzwań, jak choćby zmierzenie się z dynamiczną naturą wirtualnych serwerów. Zabezpieczenia znane ze świata fizycznego nie zawsze dadzą się zastosować w środowisku wirtualnym. Wiele praktyk bezpieczeństwa powszechnie stosowanych w fizycznych serwerach, np. używanie sprzętowych zapór sieciowych do tworzenia odseparowanych stref w sieci, kompletnie nie sprawdza się w środowiskach wirtualnych.

 

Ważną kwestią jest też bezpieczeństwo maszyn wirtualnych, które są wyłączone. Są one bowiem narażone na zainfekowanie szkodliwym kodem, a poza tym zdarza się, że są pomijane przez skanery antywirusowe. W efekcie w momencie uruchamiania takich maszyn wewnątrz firmowego środowiska może dojść do aktywacji wirusa, który nie zostanie wykryty przez zabezpieczenia działające na brzegu sieci.

Warto wspomnieć, że wyjątkowo uciążliwą bolączką dla użytkowników infrastruktury wirtualnych desktopów (VDI) są ataki typu ransomware. Najczęściej słyszy się o przypadkach zaszyfrowania dysków w fizycznych stacjach roboczych, ale to samo może się stać również z wirtualnymi pulpitami. Co więcej, w tym drugim przypadku skutki ataku mogą być dużo poważniejsze. Maszyna wirtualna jest bowiem uruchamiana z centrum danych, co oznacza, że aktywacja złośliwego kodu może mieć wpływ na całą infrastrukturę i procesy biznesowe. Jeśli ransomware zaszyfruje wzorcowy obraz (tzw. golden image), z którego korzysta wiele wirtualnych desktopów, każdy z nich będzie zainfekowany. Dlatego zabezpieczanie VDI nie może ograniczać się do zainstalowania programów ochronnych w każdej maszynie wirtualnej. Dodatkowo potrzebne jest rozwiązanie zaprojektowane specjalnie pod kątem zwirtualizowanego środowiska.

 

Bezpieczeństwo sieci

Wirtualizacja sprawia, że w jednym serwerze fizycznym powstaje sieć wirtualnych połączeń. Pojawiły się już ataki ukierunkowane na wirtualne sieci, ponieważ często komunikacja niewychodząca poza serwer fizyczny nie jest kontrolowana. Administratorzy sieciowi powinni monitorować i zabezpieczać ruch w wirtualnych sieciach w sposób podobny do tego, jaki ma miejsce w przypadku sieci fizycznych.

Narzędzia do monitoringu umożliwiają wykrycie takich zagrożeń jak botnety czy inne rodzaje ataków. Dlatego konieczna jest instalacja systemu IDS czy innych zabezpieczeń. Według firmy badawczej Research and Markets wirtualizacja to główny czynnik napędzający wzrost sprzedaży właśnie w segmencie rozwiązań do ochrony sieci.

 

Rozwój zabezpieczeń

Najwyraźniejszym trendem technologicznym jest dążenie do maksymalnej integracji rozwiązań zabezpieczających różne środowiska, aby uzyskać w nie pełny wgląd i usprawnić zarządzanie. Widać też wzrost liczby ataków na środowiska wirtualne i hybrydowe, ponieważ są one coraz powszechniej wykorzystywane w przedsiębiorstwach. Obszar ten wymaga więc szczególnej uwagi pod kątem wykrywania nowych, zaawansowanych zagrożeń.

Ponadto same zabezpieczenia będą coraz częściej oferowane w postaci wirtualnej bądź chmurowej. Już kilka lat temu analitycy z IDC zauważyli, że firmy zaczynają preferować wdrażanie zabezpieczeń w postaci oprogramowania instalowanego w maszynach wirtualnych (tzw. virtual appliance) zamiast stosowania tradycyjnych rozwiązań sprzętowych i programowych. W tej formie można uruchomić zaporę sieciową, system IPS/IDS czy aplikację antyspamową. Z kolei rozwiązania typu vCPE (virtual Customer Premise Equipment) udostępniają klientom np. funkcje firewalli czy połączeń VPN za pomocą oprogramowania, a nie sprzętu. Technologie tego typu umożliwiają klientom zamawianie na żądanie nowych usług lub dostosowywanie już używanych rozwiązań.

Artykuł Wirtualizacja i chmura też potrzebują zabezpieczeń pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/wirtualizacja-i-chmura-tez-potrzebuja-zabezpieczen/feed/ 0
Chmura niesie pieniądze https://crn.sarota.dev/aktualnosci/chmura-niesie-pieniadze/ https://crn.sarota.dev/aktualnosci/chmura-niesie-pieniadze/#respond Tue, 11 Oct 2016 14:11:00 +0000 https://crn.pl/default/chmura-niesie-pieniadze/ IDC przewiduje, że tegoroczne wydatki na infrastrukturę przeznaczoną do budowy środowiska chmury wyniosą 37, 4 mld dolarów, co oznacza 16,2% w porównaniu z 2015 rokiem.

Artykuł Chmura niesie pieniądze pochodzi z serwisu CRN.

]]>
Największą część – aż 62,5% pochłoną inwestycje związane z uruchamianiem chmury publicznej w centrach danych. Dla porównania wydatki na infrastrukturę  wdrażaną przez przedsiębiorstwa w tradycyjnym modelu spadną w tym roku o 1.8%. Niemniej należy pamiętać, że tego typu rozwiązania nadal mają  największy udział w portfelu zamówień, który wynosi 63,1%.

Popularność chmury publicznej i prywatnej rośnie na całym świecie. IDC prognozuje, że wszystkich regionach nastąpi dwucyfrowy wzrost wartości sprzedaży rozwiązań sprzętowych służących do tworzenia środowiska cloud.   IDC w  badaniach uwzględnia trzy grupy produktowe: serwery, korporacyjne pamięci masowe oraz przełączniki ethernetowe. W 2016 rok największy wzrost pod względem wartościowym odnotują przełączniki – 41,2 %. Wydatki na serwery wzrosną o 16,3 %, zaś  pamięci masowe 4,1 %. 

Według IDC w 2020 roku rynek infrastruktury IT przeznaczonej do budowy chmury publicznej i prywatnej wyniesie 60,8 mld dolarów i stanowić będzie 49,7%  całkowitych wydatków przedsiębiorstw ponoszonych na infrastrukturę IT.  

 

Artykuł Chmura niesie pieniądze pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/aktualnosci/chmura-niesie-pieniadze/feed/ 0
Exea Data Center: chmura prywatna dla partnerów https://crn.sarota.dev/artykuly/exea-data-center-chmura-prywatna-dla-partnerow/ https://crn.sarota.dev/artykuly/exea-data-center-chmura-prywatna-dla-partnerow/#respond Mon, 13 Jul 2015 06:00:00 +0000 https://crn.pl/default/exea-data-center-chmura-prywatna-dla-partnerow/ Exea uruchomiła nową platformę przetwarzania danych w chmurze obliczeniowej. Dostawca zachęca integratorów do współpracy przy świadczeniu usług w modelu SaaS.

Artykuł Exea Data Center: chmura prywatna dla partnerów pochodzi z serwisu CRN.

]]>
Nowa wirtualna platforma
Exea to kompletna infrastruktura IT oferowana firmom i  instytucjom jako usługa chmury prywatnej.
Całość bazuje na VMware vCloud Director, co stawia Exea w gronie liderów
technologicznych na polskim rynku centrów danych. Platforma dostarcza
administratorom zestaw narzędzi do zarządzania oraz rozdzielania zasobów
obliczeniowych, sieciowych i przestrzeni dyskowych. VMware vCloud Director
gwarantuje pełną kontrolę zasobów chmury prywatnej bez kłopotów
z zarządzaniem warstwą sprzętową.

Exea opiera swoją
strategię działania na relacjach z resellerami oraz integratorami.
W tym celu dostawca opracował program partnerski, którego celem jest
zadowolenie wszystkich uczestników biznesu: klientów końcowych, resellerów
i Exea. Współpraca z partnerami bazuje na przejrzystych warunkach.
Każdy z nich otrzymuje gwarancję stałej prowizji od sprzedaży. Usługi data
center rozliczane są w cyklach miesięcznych, co oznacza stały
i regularny dochód ze sprzedaży. Exea generuje leady i przekazuje
potencjalnych klientów partnerowi do dalszej obsługi.

Integratorzy mają też
możliwość prowadzenia wspólnych projektów marketingowych z dostawcą.
W ramach takich inicjatyw możliwy jest udział w branżowych
wydarzeniach i konferencjach oraz prowadzenie działań typu media
relations. Kadra partnera może liczyć na profesjonalną pomoc techniczną ze
strony Exea. Współpraca koordynowana jest przez product managerów przypisanych
do poszczególnych usług.

Udział w programie
partnerskim wiąże się także z podnoszeniem kwalifikacji zespołu partnera –
dzięki uczestnictwu w Akademii Exea. Szkolenia i warsztaty
produktowe, sprzedażowe i techniczne oraz system certyfikacji sprzedawców
dają pewność, że doradcy biznesowi u integratora będą zawsze dysponować
odpowiednią wiedzą IT.

 

Oferta Exea jest warta uwagi, tym bardziej że resellerzy
coraz częściej poszukują możliwości szybkiego wdrożenia nowych usług  informatycznych, których wymagają klienci.
Chmura obliczeniowa jest dostępna dla wszystkich, ale – jak pokazują różne
badania – osoby decyzyjne w kwestiach IT wciąż mają wiele obaw
związanych z bezpieczeństwem danych. Nie są one bezzasadne. Ostatnie
miesiące przyniosły bezprecedensowy wzrost cyberzagrożeń. Dlatego tak ważny
jest solidny dostawca usług w chmurze oraz ośrodek oferujący bezpieczne
i sprawdzone zasoby serwerowe, a także przestrzeń dla infrastruktury.
Warunki te spełnia centrum danych Exea, które dysponuje własnym obiektem
i zbudowanymi na podstawie certyfikowanego projektu wykonawczego
(certyfikat Uptime Insitute Tier III of Design Documents).

Chmura Exea – podstawowe dane

• Zarządzanie
maszynami wirtualnymi przy użyciu otwartych interfejsów bazujących na usługach
REST: VMware vCloud API i Open Virtualization Format.

• Użytkownik jednego wirtualnego serwera
ma do dyspozycji: CPU do 24 vcore, RAM do 96 GB, HDD do 2 TB.

• Platforma udostępnia
prekonfigurowane szablony maszyn oraz opcje tworzenia własnych szablonów dla
wielu wirtualnych maszyn.

• Load balancer:
narzędzie zarządzające obciążeniami zasobów z możliwością szybkiej
konfiguracji.

• Platforma umożliwia pełne zarządzanie
zrzutami stanu maszyn wirtualnych (snapshotami).

• Użytkownik
administruje całą wirtualną siecią w ramach IaaS.

• W systemie działa
dedykowany firewall do ochrony ruchu między maszynami i siecią zewnętrzną.

• Platforma daje możliwość bardzo
precyzyjnego zarządzania dostępem do sieci poszczególnych użytkowników.

• Użytkownicy otrzymują bezpośredni dostęp
do katalogów i wirtualnych ośrodków danych za pomocą przyjaznego portalu
WWW.

Więcej informacji pod
adresem
: exea.pl 

 

Artykuł Exea Data Center: chmura prywatna dla partnerów pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/exea-data-center-chmura-prywatna-dla-partnerow/feed/ 0
EMC inwestuje w chmurę https://crn.sarota.dev/artykuly/emc-inwestuje-w-chmure/ https://crn.sarota.dev/artykuly/emc-inwestuje-w-chmure/#respond Wed, 17 Dec 2014 10:00:00 +0000 https://crn.pl/default/emc-inwestuje-w-chmure/ Stworzenie pełnego portfolio rozwiązań do obsługi chmury prywatnej, publicznej i hybrydowej stało się strategicznym celem producenta.

Artykuł EMC inwestuje w chmurę pochodzi z serwisu CRN.

]]>
Listopadowe EMC Forum było okazją do opublikowania wyników
przeprowadzonego przez EMC badania, w którym wzięły udział 263 osoby
z Polski odpowiedzialne za podejmowanie decyzji w sprawach IT.
Zapytano je o opinię na temat informatyki jako elementu wpływającego na
transformację biznesu w epoce takich trendów, jak chmura, technologie
mobilne i społecznościowe oraz Big Data.

Badanie wykazało, że
działy IT nie wpływają już tylko na zapewnianie oszczędności i obniżanie
kosztów, ale zaczynają być postrzegane jako strategiczny czynnik umożliwiający
rozwój biznesu i lepszy kontakt z klientami (tak odpowiedziało
51 proc. ankietowanych). Respondenci dostrzegli wpływ technologii na
opracowywanie nowych produktów i usług (43 proc.) oraz poprawę
obsługi klienta (38 proc.). Co ważne, firmy przenoszą coraz więcej
rozwiązań do chmury. W sumie 54 proc. respondentów już korzysta
z usług chmurowych, w tym 14 proc. z technologii chmury
hybrydowej.

Aby jednak w pełni
wykorzystać potencjał tego typu rozwiązań, należy pokonać kilka barier.
O ile aż 64 proc. polskich przedsiębiorców twierdzi, że ich firma lub
instytucja dysponuje odpowiednimi kompetencjami, aby z powodzeniem
realizować cele biznesowe, o tyle podobny odsetek twierdzi, że
w ciągu najbliższego roku lub dwóch dotrzymanie kroku innowacjom
w informatyce będzie stanowić wyzwanie dla pracowników.

 

Chmura hybrydowa razem z VMware’em

Ogłoszenie
wyników badań zbiegło się w czasie z wprowadzeniem przez EMC do
sprzedaży rozwiązania EMC Enterprise Hybrid Cloud, które stanowi połączenie
sprzętu, oprogramowania i usług dwóch dostawców – EMC oraz VMware’a.
Umożliwia ono wdrożenie modelu usługowego IT „na żądanie” (IT as a service
– ITaaS) w 28 dni, z pomocą działu usług specjalistycznych EMC
(EMC Professional Services).

 

EMC Enterprise Hybrid
Cloud może obsługiwać aplikacje tradycyjne i następnej generacji,
a więc przygotowane specjalnie z myślą o architekturze chmury
hybrydowej. Tworząc to rozwiązanie, producent zapewnił zgodność operacyjną
z usługami chmury publicznej bazującymi na platformach VMware vCloud Air,
Microsoft Azure, AWS oraz innych dostawców.

W 2015 r. EMC
planuje wprowadzenie na rynek rozwiązania EMC Enterprise Hybrid Cloud
bazującego na platformie firmy Microsoft oraz na technologii OpenStack.
W przypadku platformy Microsoft klienci mają mieć możliwość łatwej
integracji fizycznej pamięci masowej EMC i infrastruktury Windows Server
Hyper-V z platformą Microsoft Azure.

 

EMC na zakupach

Producent rozbudowuje ofertę dla chmury także poprzez
akwizycje innych firm. W październiku br. koncern kupił trzy podmioty
tworzące rozwiązania dla chmury: Cloudscaling Group, Maginatics oraz Spanning
Cloud Apps.

Cloudscaling jest dostawcą rozwiązań bazujących na
oprogramowaniu OpenStack do udostępniania infrastruktury jako usługi
(Infrastructure as a Service –
IaaS), przeznaczonych do obsługi chmur prywatnych i hybrydowych.
Oferowany przez tę firmę Open Cloud System (OCS) udostępnia system operacyjny
do zarządzania przetwarzaniem, pamięcią masową i siecią w chmurze.

Maginatics to dostawca rozwiązań do tworzenia globalnej
przestrzeni nazw (global namespace) w chmurze hybrydowej. Technologia tego
dostawcy ułatwia efektywne przenoszenie danych między wieloma chmurami. Oferuje
przy tym deduplikację danych, optymalizację sieci WAN oraz obsługę dużych
obiektów i wielowątkowości.

Z kolei firma Spanning jest dostawcą oferowanych
w modelu subskrypcyjnym rozwiązań do tworzenia kopii zapasowych
i odtwarzania po awarii aplikacji i danych, przeznaczonych specjalnie
do wdrażania w chmurze. Zapobiegają one przerwom w działalności
biznesowej wskutek utraty danych zawartych w usłudze Google Apps
i serwisie Salesforce.com. W pierwszej połowie 2015 r. ma być
udostępnione także rozwiązanie dla pakietu Microsoft Office 365.

Artykuł EMC inwestuje w chmurę pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/emc-inwestuje-w-chmure/feed/ 0
Od chmury prywatnej do hostingu https://crn.sarota.dev/artykuly/od-chmury-prywatnej-do-hostingu/ https://crn.sarota.dev/artykuly/od-chmury-prywatnej-do-hostingu/#respond Mon, 13 May 2013 08:00:00 +0000 https://crn.pl/default/od-chmury-prywatnej-do-hostingu/ Po zbudowaniu własnej infrastruktury opartej na chmurze prywatnej można przystąpić do udostępnienia jej jako usługi (Infrastructure as a Service) w modelu chmury publicznej lub hybrydowej. Jest to możliwe dzięki wykorzystaniu narzędzi do zarządzania System Center 2012, które zawierają komponenty do integracji z infrastrukturą podmiotów zewnętrznych (klientów) oraz zarządzania takim środowiskiem za pomocą jednej konsoli.

Artykuł Od chmury prywatnej do hostingu pochodzi z serwisu CRN.

]]>
Takie rozszerzenie funkcjonalności pozwala na odsprzedaż dedykowanych lub
nadmiarowych zasobów firmowej infrastruktury i jednoczesne przejście do
świadczenia usług hostowanej chmury (hosted cloud). Rozwiązaniem integrującym,
dzięki któremu centra danych mogą udostępniać swoim klientom zasoby lokalnej
infrastruktury, jest Service Provider Foundation (SPF). Potrzebne też będą
konsole umożliwiające zarządzanie zasobami przez klientów usług. Łącznie
w infrastrukturze hostera powinny znaleźć się przedstawione poniżej
elementy.

• Infrastruktura fizyczna – pula zasobów (mocy obliczeniowej, pamięci
i przestrzeni dyskowej) udostępnianych klientom. Składa się na nią także
odpowiednio wydajna infrastruktura sieciowa oraz zainstalowane na serwerach
oprogramowanie zapewniające zdalny dostęp do niej. Infrastruktura fizyczna
powinna być odporna na awarie oraz współpracować z systemami zasilania
awaryjnego i klimatyzacji, tworząc w ten sposób mechanizmy wysokiej
dostępności, gwarantujące wysoką jakość świadczonych usług.

• Operations Manager – oprogramowanie umożliwiające całościowe
monitorowanie wszystkich warstw środowiska hostera oraz klientów. Daje wiedzę o stanie
infrastruktury, zarówno w aspekcie potencjalnych zdarzeń związanych
z występowaniem błędów i awarii, jak również w kontekście umów
SLA. Dzięki temu rozwiązaniu klienci mogą otrzymywać informacje związane
z dostępnością i stanem ich usług, również w środowiskach
heterogenicznych.

• Virtual Machine
Manager
(VMM) – kluczowy komponent umożliwiający udostępnianie
zasobów ich odbiorcom. Jego głównym zadaniem jest zarządzanie warstwą
wirtualizacji. Pozwala jednocześnie na definiowanie pul zasobów do
udostępnienia czy też obiektów bibliotek stanowiących podstawę do tworzenia nowych
wirtualnych maszyn. Aby możliwe było udostępnianie klientom zewnętrznym
stworzonej w ten sposób infrastruktury, konieczne jest zintegrowanie go
z oprogramowaniem Service Provider Foundation.

• System Center
Orchestrator

(SCO) – automatyzuje zadania administracyjne oraz wykonywanie działań
zlecanych przez klientów. Podczas świadczenia usług umożliwia definiowanie
działań nietypowych, których nie przewiduje standardowa funkcjonalność
interfejsów dostępowych klientów. Ma to zastosowanie głównie w przypadku wykonywania
zadań na wielu warstwach lub tych, których złożoność wymagałaby wykonania
kilkunastu następujących po sobie czynności.

• Service Manager (SM) – rozwiązanie
odpowiedzialne za obsługę żądań klientów związanych z dostarczanymi
usługami (np. żądanie obsługi lub wdrożenie usługi). Podczas udostępniania
zasobów pozwala na stworzenie katalogu usług, którego składowe odwołują się do
zadań zdefiniowanych w System Center Orchestrator, po czym są
automatycznie realizowane.

 


• Portale
dostępowo-lokalne
– pozwalają
administratorom lub użytkownikom rozwiązań IaaS na wykonywanie powiązanych
z nimi czynności. Standardowym interfejsem zarządzania wirtualnymi
maszynami i zasobami VMM jest App Controller, umożliwiający wykonywanie
podstawowych czynności administracyjnych. Portal Web OpsMgr służy
do analizy stanu komponentów infrastruktury, w tym mierników SLA. Service
Manager Portal, działający na podbudowie SharePoint, umożliwia użytkownikom
dostęp do katalogu usług, dzięki któremu możliwa jest jego personalizacja
i powiązanie z dodatkowymi rozwiązaniami w ramach jednego
portalu.

• Portale
dostępowo-zdalne
– są
udostępniane klientom lub działają po stronie ich infrastruktury. Można
wyróżnić dwa standardowe rozwiązania portali dostępowych klientów usługi IaaS App
Controller, integrujący zasoby hostera (jako Hosted Cloud) do puli zasobów VMM
lokalnych klienta oraz Service Management Portal – niezależne rozwiązanie
zapewniające obsługę usług związanych z dostarczaniem wirtualnych maszyn
oraz aplikacji internetowych za pomocą konsoli w formie aplikacji Web.

• Service
Provider Foundation

(SPF) – komponent integrujący się z lokalnymi zasobami VMM hostera,
stanowiący szynę komunikacyjną z portalami zdalnego dostępu. Na jego
podbudowie możliwe jest także tworzenie własnych rozwiązań aplikacji dostępu
klientów. Jego dwiema najważniejszymi funkcjami jest przekazywanie komunikatów
zarządzania zasobami oraz uwierzytelniania klientów.

 




Integracja komponentów
w infrastrukturze

 

Podstawa do
świadczenia usług IaaS powstaje dzięki połączeniu przedstawionych mechanizmów
oraz funkcji sieciowych pozwalających na kontakt pomiędzy infrastrukturą
klienta oraz przypisanymi mu zasobami po stronie hostera. Klient, za
pośrednictwem tunelu VPN, może uzyskać dostęp do wydzielonej wirtualnej sieci
(VLAN), w której pracują jego wirtualne maszyny. Dodatkowo, korzystając
z portali dostępowych, uzyskuje połączenie z konsolami
wykorzystującymi protokół RDP do wnętrza wirtualnych maszyn w celu
zarządzania i rekonfiguracji. Czynności dodatkowe, np. zlecenie
automatycznej instalacji aplikacji w posiadanej przez klienta maszynie
wirtualnej, zgłasza za pośrednictwem portalu Service Manager, tworząc tym samym
zgłoszenie dla administratora centrum danych. Wygenerowane żądanie obsługi po
akceptacji jest automatycznie realizowane dzięki konfiguracji wykonanej przez
warstwę automatyzacji (Orchestrator). Po ukończeniu klient może otrzymać e-mail
z informacją o wykonaniu zlecenia.

Najważniejszym mechanizmem w kontekście świadczenia usług jest integracja
zasobów hostera z możliwością uzyskania dostępu przez klientów. Powyższy
schemat przedstawia powiązanie pomiędzy kolejnymi elementami infrastruktury
biorącymi udział w świadczeniu usług IaaS oraz rolę, jaką pełni
w nich klient. Z perspektywy odbiorcy usług otrzymuje on dostęp do
witryn internetowych, stanowiących konsolę do zarządzania zasobami. Za
pośrednictwem App Controller lub Service Management Portal (SMP) uwierzytelnia
się jako uprawniony użytkownik – za pośrednictwem lokalnego konta użytkownika
Active Directory (dla App Controller) lub jako użytkownik zapisany w bazie
danych SMP po stronie hostera.

 

Gdy aplikacja dostępowa uwierzytelni klienta, dalsza komunikacja odbywa
się z wykorzystaniem Service Provider Fundation, w którym użytkownicy
reprezentowani są jako Tenant – każdy
z nich posiada przypisane zasoby.
Na tym etapie, za uwierzytelnienie odpowiadają certyfikaty „wymieniane” pomiędzy aplikacją
dostępową i SPF – nie odbywa się dalsze uwierzytelnienie tożsamości
użytkownika, a jedynie danych przekazanych przez portale dostępowe.
Pobranie danych lub przekazanie zlecenia do udostępnionych zasobów realizowane
jest przez SPF, połączony z Virtual Machine Manager. W ramach VMM,
obiekty Tenant SPF mapowane są na Tenant VMM, dla których przypisywane są
zasoby chmury oraz biblioteki – dane uwierzytelniające nie są ponownie
przekazywane (rozróżnienie następuje na poziomie SPF). Ostatecznie, VMM
wykonuje akcje w warstwie wirtualizacji.

Wyzwaniem, jakie stoi przed centrami danych udostępniającymi usługi
IaaS, jest zapewnienie wygodnej dla klientów metody uzyskiwania dostępu do
zasobów, spójnej tożsamości użytkownika oraz bezpieczeństwa komunikacji.
Rozwiązania ułatwiające integrację, takie jak Service Provider Foundation oraz
Service Management Portal, który stanowi modelową konsolę dostępu, pomagają
spopularyzować tę formę świadczenia usług. Istotnym aspektem są interfejsy API
w SPF i SMP, dzięki którym usługodawcy mogą dowolnie rozwijać swoje
rozwiązania i formę świadczonych usług.

 

Przygotowanie zasobów do hostingu

Poprawne
dostarczenie usług użytkownikom końcowym wymaga przygotowania zasobów oraz
opracowania modelu świadczenia usług. Kolejne etapy konfiguracji są
determinowane przez różnorodność wymagań, specyfikę infrastruktury lub
dostępnych elementów katalogu usług. Schemat postępowania w procesie
konfiguracji dla odbiorców usług odbywa się zgodnie z przyjętymi
standardami. Różnice pojawiają się na poziomie przypisania personalnych zasobów
zgodnie ze specyfiką klienta. Jako podstawę do świadczenia usług IaaS stanowią
przypisane klientom pule zasobów oraz szablony Virtual Machine Manager (VMM).

Odpowiednio wydajną pracę środowiska maszyn wirtualnych, określaną
poprzez parametry systemu dostarczanego użytkownikom końcowym (klientom IaaS),
stanowi pula zasobów. Proces przygotowania infrastruktury na potrzeby
dostarczania usług w modelu chmury można podzielić na klika faz, gdzie
zawsze należy zacząć od przygotowania infrastruktury, czyli podłączenia zasobów
fizycznych przy pomocy hypervisorów do oprogramowania zarządzającego Virtual
Machine Manager.

Przygotowane
w ten sposób serwery i ich komponenty (rdzenie procesora, pamięć
operacyjna, przestrzeń dyskowa) stanowią pulę zasobów, która podlega
zgrupowaniu i udostępnieniu użytkownikom chmury w tej postaci.
W zależności od przyjętego modelu kosztowego można sterować dodatkowymi
parametrami, takimi jak klasyfikacja przestrzeni dyskowych lub portów
– określenie ich wydajności może stanowić jeden z parametrów ceny.
Składnikiem określającym funkcjonalność systemu klienta oraz wprowadzającym
dodatkowy element rozliczeniowy są sieci logiczne, gwarantujące izolację
i kontrolę przepustowości oraz niezawodność komunikacji dla środowiska
klienta. Ponadto każda chmura ma profil zgodności (capability profile)
z rozwiązaniem wirtualizacji, który określa, jakiego producenta
hypervisory w nim pracują.

 

Szablony dla chmury

Podstawą do
tworzenia przez klientów maszyn wirtualnych oraz ich zbiorów zorganizowanych
w usługach VMM, są udostępnione szablony. Mechanizm bibliotek zasobów,
dostarczany przez VMM, umożliwia składowanie maszyn wirtualnych w trybie
zapis/odczyt lub w trybie odczytu, dostarczając wyłącznie wzorce
i szablony.

 

Po zdefiniowaniu
puli zasobów i elementów z nią związanych konieczne jest
przygotowanie wzorcowych obiektów, na podstawie których odbiorcy będą tworzyć
własne wirtualne instancje. Biblioteka Virtual Machine Manager może zawierać:

• szablony maszyn
wirtualnych
określające
parametry sprzętowe nowych instancji oraz dodatkowe parametry, m.in. system
operacyjny, klucz produktu czy też członkostwo w domenie,

• szablony usług pozwalające na wdrażanie instancji
wirtualnych wraz z aplikacjami w modelu n-warstwowym,

• profile
sprzętowe
umożliwiające
wybór różnych parametrów zasobów przypisanych do kreowanych maszyn wirtualnych,

• dyski wirtualne (wzorcowe), które mogą zawierać
przygotowany system operacyjny,

• obrazy ISO z dodatkowymi aplikacjami lub
systemami operacyjnymi,

• inne dane pomocnicze takie jak skrypty czy pliki
odpowiedzi.

Przygotowując
zbiór obiektów, należy uwzględnić wymogi odbiorców usług, zapewniając
różnorodność wyboru przy jednoczesnym zachowaniu standardów. Biorąc pod uwagę
perspektywę ich wykorzystania, poprawne jest określenie zgodności tworzonych
szablonów. Kluczowe znaczenie ma prawidłowe określenie systemów wspieranych
przez aplikacje oraz wskazanie technologii wirtualizacji, do której dany
szablon jest dedykowany.

Ostatni etap konfiguracji obejmuje konta klientów środowiska chmury,
czyli Tenantów Virtual Machine Manager. W większości scenariuszy będą one
tworzone przez mechanizmy dodatkowe, tj. Service Provider Foundation lub
Service Management Portal. Różnorodność potrzeb klientów i zdefiniowanych
przez nich wymogów dla usługi IaaS może wiązać się z koniecznością ręcznej
rekonfiguracji obiektów zarządzanych przez VMM.

Podczas tworzenia definicji klienta IaaS (Tenant) konieczne jest
przypisanie mu podstawowych cech, to znaczy:

• Scope – wskazuje dostępne pule zasobów,
zorganizowane w chmurę,

• Quota – limit dostępnych dla niego
zasobów chmury,

• Networking – możliwe do wykorzystania podczas
komunikacji maszyn wirtualnych z sieciami logicznymi,

• Resources – wzorce i obiekty
z biblioteki, jakie może wykorzystać podczas kreowania własnych
wirtualnych instancji,

• Actions – dostępne czynności związane
ze zmianą stanu posiadanych przez niego maszyn oraz zasad ich obsługi.

Zmiana
wymienionych parametrów, w zależności od stosowanego rozwiązania dostępu
klienta, może wymagać dodatkowych czynności po jego stronie, np.
w przypadku Service Management Portal.

Zasoby i konfiguracje tworzone w Virtual Machine Manager są podstawą działania każdego
rozwiązania tworzącego chmurę obliczeniową. Projektując środowisko do świadczenia usług podmiotom zewnętrznym,
wyzwaniem dla usługodawcy staje się realizacja
wszystkich ich wymagań z zachowaniem
zgod-ności z wewnętrznymi
pro-cedurami i zasadami. Dodatkowo, zwiększeniu
ulega liczba zadań administracyjnych
związanych z utrzymaniem aktualności dostarczanych systemów operacyjnych,
aplikacji, prowadzeniem testów poprawności wdrażania aplikacji itp.
Rozwiązaniem, jakie należy rozważyć, jest wprowadzenie dodatkowych mechanizmów
automatyzujących standardowe procesy, co może zmniejszyć nakłady związane
z utrzymaniem środowiska i wykorzystanie ich do dalszego
doskonalenia świadczonych usług.

Artykuł Od chmury prywatnej do hostingu pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/od-chmury-prywatnej-do-hostingu/feed/ 0
Chmura gotowa na wszystko https://crn.sarota.dev/artykuly/chmura-gotowa-na-wszystko/ https://crn.sarota.dev/artykuly/chmura-gotowa-na-wszystko/#respond Mon, 06 May 2013 10:47:00 +0000 https://crn.pl/default/chmura-gotowa-na-wszystko/ Aby móc świadczyć jakiekolwiek usługi IT – zarówno wewnątrz firmy, jak też klientom zewnętrznym – konieczne jest stworzenie zaawansowanej, skalowalnej infrastruktury sprzętowej i programowej, gotowej na przyjęcie różnego rodzaju zadań obliczeniowych. Zawsze zaczynamy budowę takiej infrastruktury od stworzenia warstwy sprzętowej, oprogramowania jej i nałożenia warstwy automatyzującej zarządzanie. W ten sposób powstaje chmura prywatna, którą później będziemy mogli przekształcić w publiczną.

Artykuł Chmura gotowa na wszystko pochodzi z serwisu CRN.

]]>
Chmura prywatna
gwarantuje możliwość świadczenia elastycznych usług biznesowych, dostarczanych
klientom poprzez samoobsługowe narzędzia. Projekt wdrożenia chmury to dobra
okazja do właściwego zaprojektowania własnej infrastruktury, aby spełniała ogólnie
przyjęte wytyczne i wzorce. W architekturze każdej chmury
obliczeniowej powinny być uwzględnione wymienione poniżej elementy.

• Samoobsługa – odbiorca usługi dostarczanej
przez infrastrukturę chmury powinien móc samodzielnie definiować parametry usługi
(moc obliczeniowa, pamięć, sieci, zasoby dyskowe) przy pomocy mechanizmów
samoobsługowych (np. portal web), dzięki czemu usługa nie będzie wymagać
obsługi ze strony administratorów.

• Współdzielenie
zasobów
– chmura powinna dostarczać użytkownikom współdzielone
pule zasobów. Powinny one być niezależne od ich fizycznych lokalizacji, także
użytkownicy nie powinni być świadomi fizycznych lokalizacji wykorzystywanych
zasobów.

• Elastyczność
i skalowalność

– rozwiązania chmury powinny umożliwić natychmiastowe alokowanie oraz
zwalnianie zasobów, zgodnie z rosnącym lub malejącym zapotrzebowaniem
usług. Mechanizmy te powinny działać automatycznie i bez potrzeby
ingerencji człowieka. Dodatkowo, użytkownik chmury powinien postrzegać zasoby
jako niemal nieograniczone oraz zdolne do obsłużenia dowolnego scenariusza.

• Mierzalność
usług
– usługi chmury muszą
umożliwiać rozliczanie klientów według aktualnego zużycia zasobów. Używane
zasoby są monitorowane, raportowane oraz kontrolowane przez dostawcę usług oraz
odpowiednie polityki. Dzięki temu dostarczane rozliczenia są wiarygodne dla
dostawcy oraz dla klientów.

Biorąc pod uwagę
powyższe wymogi, należy zauważyć, że chmura obliczeniowa to znacznie więcej niż
tylko wirtualizacja, konsolidacja serwerów czy usługi online, a kluczowe
elementy chmury (samoobsługa, współdzielenie zasobów, elastyczność
i skalowalność oraz mierzalność usług) tworzą nową jakość dla dostarczania
usług. Kiedy te wszystkie wymagania są spełnione w tradycyjnym centrum
danych, zmienia się ono w chmurę prywatną. Zasadniczą  różnicą pomiędzy tradycyjnym modelem centrum
danych (gdzie główny nacisk położony jest na infrastrukturę oraz na jej
działanie) oraz chmurą prywatną jest to, że chmura skupia się na dostarczaniu
usług.

 

Zalety chmury prywatnej

W porównaniu
z tradycyjnym centrum danych chmury prywatne wyróżnia wiele zalet.
Podstawową jest możliwość szybkiego tworzenia, testowania oraz wdrażania
rozwiązań, co w klasycznym modelu zajmowało tygodnie lub nawet miesiące.
Wystarczy wypełnić formularz online, aby automatycznie zostały stworzone
i uruchomione maszyny wirtualne z odpowiednio przypisanymi zasobami
– wszystko bez żadnej ingerencji obsługi dostawcy chmury.

 

Kolejną ważną
zaletą jest elastyczność i skalowalność zasobów chmury. Umożliwia ona
znaczną oszczędność pieniędzy na wykorzystywanych zasobach (moc obliczeniowa,
pamięć operacyjna, sieci, przestrzeń dyskowa). W momencie rozpoczęcia
projektu zasoby są alokowane do usługi chmury, a w momencie
zakończenia projektu wracają do globalnej puli, dzięki czemu klient płaci tylko
za faktycznie zużyte zasoby. Jest to możliwe dzięki precyzyjnym pomiarom
i monitorowaniu rzeczywistego wykorzystania usług chmury oraz dostarczania
szczegółowych raportów. W ten sposób działy IT z klasycznych centrów
kosztów przekształcają się w dostawcę usług biznesowych.

W trakcie
zmiany tradycyjnych centrów danych w centra oparte na chmurze prywatnej,
działy IT uczą się jak sprawnie i efektywnie pracować w środowisku
chmury. Doświadczenia zdobyte przy tworzeniu architektury, projektowaniu,
planowaniu, wdrażaniu i zarządzaniu chmurą prywatną procentują przy
dalszym rozwoju.

Warto pamiętać, że potencjał chmury prywatnej może zostać dodatkowo
rozszerzony dzięki połączeniu z chmurą publiczną. Zyskiem jest niemal
nieograniczona skalowalność takiej chmury hybrydowej.

 

Wirtualizacja zasobów krokiem ku chmurze

Pierwszym etapem
budowy chmury prywatnej jest stworzenie spójnego systemu zarządzania
tożsamością. System ten będzie autoryzował wszystkie kolejne działania
i usługi realizowane w ramach chmury. Na tak przygotowanym
fundamencie można zwirtualizować zasoby serwerowe. Budując środowisko
wirtualne, tworzymy jednocześnie podstawy do działania chmury prywatnej,
pozwalającej świadczyć zaawansowane usługi (IaaS, PaaS, SaaS). W tym celu
można wykorzystać wbudowany w Windows Server 2012 wirtualizator Hyper-V
3.0 (dostępny również bezpłatnie do pobrania ze stron Microsoft).

Jednak
zwirtualizowane środowisko to dopiero pierwszy etap budowy chmury prywatnej.
Konieczna jest warstwa zarządzania, monitorowania i automatyzacji
procesów. Zadania te realizowane są przez odpowiednie komponenty pakietu System
Center 2012 SP1. Wirtualnymi maszynami zarządza System Center Virtual Machine Manager,
który pozwala zrobić wiele więcej niż sama konsola do obsługi Hyper-V wbudowana
w Windows Server. Dzięki niemu można łatwo przenosić maszyny wirtualne,
korzystać z rekomendacji działań wobec niedociążonych lub przeciążonych
serwerów, stosować wbudowane biblioteki z obrazami systemów lub płyt
(pliki ISO), skryptami itd.

Virtual Machine
Manager to aplikacja wykonawcza, która – w zależności od sytuacji
– na podstawie zdefiniowanych przez administratora reguł może dodawać lub
zabierać zasoby. Jeżeli jednak zostanie wzbogacona dodatkowo o portal
samoobsługowy, pracownikom firmy zostanie zapewniona samodzielna obsługa
poprzez narzędzie do rezerwacji zasobów potrzebnych do realizacji ich celów
biznesowych. Dzięki temu portalowi zgłaszane są zapotrzebowania użytkowników
(działów biznesowych) na zasoby niezbędne do realizacji projektów. Użytkownik
określa ile maszyn, instancji baz danych, zasobów pamięci i procesora jest
potrzebnych. Zgodnie z zapotrzebowaniem zasoby te są mu potem
przydzielane, jeśli taki wniosek zostanie zaakceptowany przez administratora
chmury prywatnej.

Oczywiście,
dzięki zaletom wirtualizacji suma deklarowanego obciążenia przez wszystkich
użytkowników biznesowych może być wyższa od rzeczywistych zasobów IT, którymi
dysponuje organizacja. Dzieje się tak dlatego, że przez większość czasu
sumaryczne zapotrzebowanie nie przekracza możliwości serwerów. W fazie
deklaracji zapotrzebowania na usługę przez stronę biznesową i akceptacji
zgłoszenia przez IT, następuje ważny moment. To właśnie wtedy zawierana jest
umowa pomiędzy działami, dotycząca z jednej strony tego, jak zostanie
obciążony budżet działu biznesowego, a z drugiej, jaką usługę
w odpowiedzi na zapotrzebowanie dostarczy dział IT.

 
Chmura stale monitorowana

Poprawne
działanie chmury prywatnej jest gwarantowane dzięki możliwości stałego,
dogłębnego monitorowania i raportowania wszystkich jej warstw oraz
procesów w nich zachodzących. Do tego celu służy System Center Operations
Manager (SCOM), który jest narzędziem umożliwiającym obsługę wielu platform
serwerowych, różnych systemów operacyjnych i wirtualizatorów. SCOM ma
jeden przejrzysty interfejs, który pokazuje aktualny stan i informacje
o wydajności sprzętu, systemów i aplikacji.

Na podstawie zbieranych danych informujących o dostępności,
wydajności, konfiguracji czy bezpieczeństwie poszczególnych systemów, powiadamia
również o ewentualnych problemach oraz przedstawia proponowane rozwiązania
z bazy wiedzy. Tak przekrojowy monitoring z rozbudowaną warstwą
raportową jest nieodzownym elementem w celu utrzymania wysokiego poziomu
usług przez IT oraz służy do rozliczania się z nich w ramach chmury
prywatnej. Natomiast samym administratorom SCOM znacznie ułatwia wczesne
wykrywanie i rozwiązywanie problemów w środowiskach heterogenicznych.

Ponieważ docelowo
chmura prywatna, którą budujemy, będzie utrzymywać wiele złożonych usług,
warto wyposażyć ją w mechanizmy zaawansowanej automatyki. Ten element
można zrealizować z wykorzystaniem oprogramowania System Center Orchestrator.
Rozwiązanie to umożliwia integrację wszystkich heterogenicznych komponentów
chmury i realizowanie sekwencji czynności administracyjnych, rozwiązując
automatycznie pojawiające się problemy.

 

Pełna heterogeniczność

Microsoft stosuje
otwarte podejście przy budowie chmur obliczeniowych, w którym potrzeby
klienta mają pierwszeństwo przed określonymi technologiami. Chmura prywatna
Microsoft obsługuje różnorodne środowiska wirtualizatorów (Hyper-V, XenServer,
VMware ESX/ESXi), systemów operacyjnych (Windows, dystrybucje systemu Linux,
np. RedHat, SUSE, CentOS) i platform projektowania aplikacji (.NET, Java,
Ruby, Python). Dzięki temu klienci mogą wykorzystać istniejącą infrastrukturę
i posiadane umiejętności. Ponadto, Microsoft oferuje międzyplatformową
funkcję monitorowania systemów gości Linux/Unix (System Center Operations
Manager), międzyplatformową funkcję zarządzania konfiguracją (System Center
Configuration Manager) i automatyczną integrację narzędzi do zarządzania
innych producentów, takich jak HP, CA i BMC (System Center Orchestrator).

Wirtualizator Hyper-V zapewnia wysoką wydajność i skalowalność
aplikacji, w szczególności własnych rozwiązań Microsoftu, takich jak
SharePoint, SQL czy Exchange. Dzięki niemu można bez obaw zwirtualizować
oprogramowanie o istotnym znaczeniu dla przedsiębiorstwa w chmurze
prywatnej firmy Microsoft.

Dla działów
biznesowych najważniejszymi w ofercie IT są aplikacje. Platforma
przetwarzania danych w chmurze jest skoncentrowana właśnie na aplikacjach,
co pomaga klientom skupić się na rzeczywistym biznesie, zamiast na jego
infrastrukturze technicznej. Ważna jest też szeroko rozumiana heterogeniczność,
czyli obsługa różnych wirtualizatorów, systemów operacyjnych i struktur
aplikacji. Rozbudowa zwirtualizowanej infrastruktury w kierunku chmury
prywatnej, pozwala organizacji skupić się nie na technikaliach, czyli maszynach
wirtualnych, lecz na aplikacjach i usługach.

 
Usługi jak programy

Podejście
Microsoftu jest skoncentrowane na usługach i pomaga klientom zarządzać
całym cyklem życia aplikacji, począwszy od udostępniania usług (wizualizacja,
projektowanie, budowanie struktury, wdrożenie i konfiguracja), po ich
obsługę (monitorowanie, korygowanie i aktualizację). Usługę można porównać
do logicznego odpowiednika programu. Oprogramowanie System Center 2012
umożliwia zdefiniowanie „wzorca usługi”, w którym zostanie zapisana
struktura usługi aplikacji. Ten wzorzec usługi obejmuje profile sprzętowe,
profile systemu operacyjnego, ustawienia aplikacji, wartości progowe kondycji
i wydajności, zasady aktualizacji i skalowania itp. Pokazuje to, jak
do usługi aplikacji dodane zostają wskazane powyżej atrybuty chmury dla każdej
warstwy usługi.

Ponadto System
Center 2012 obejmuje obszar wirtualizacji aplikacji. Jest to technologia, która
umożliwia wirtualizację aplikacji serwerowych oraz uproszczenie procesu
wdrażania i aktualizacji oprogramowania w chmurze prywatnej, bez
konieczności ich modyfikowania lub ponownej ich instalacji.

Oprogramowanie
System Center Operations Manager monitoruje kondycję i wydajność
wszystkich elementów infrastruktury informatycznej, w tym warstwy fizycznej,
warstwy wirtualizacji, systemu operacyjnego i aplikacji. Rozwiązanie
oferuje także kompleksowy monitoring transakcji aplikacji w celu
maksymalizacji poziomu dostępności i wydajności. Pozwala to na uzyskanie
wyższej wydajności, niż jest gwarantowana w umowach serwisowych. Dzięki
rozwiązaniom do obsługi chmury prywatnej firmy Microsoft infrastruktura
informatyczna zapewni grupom biznesowym możliwość wdrażania aplikacji oraz
zagwarantuje odpowiedni poziom ich wydajności. Oprogramowanie System Center App
Controller 2012 zapewnia użytkownikom jeden interfejs do administrowania
i obsługi aplikacji w chmurach prywatnych i publicznych,
a także oferuje pełny obraz i kontrolę wdrażania, zarządzania
i obsługi aplikacji.

 

Chmura prywatna – krok po kroku

1. Instalacja
Windows Server 2012. Serwer Windows wraz z wirtualizatorem Hyper-V
umożliwi stworzenie chmury.
Fizyczny serwer wykorzystany do
tego celu powinien mieć sprzętowe wsparcie dla wirtualizacji. Usługa Active
Directory pomoże w stworzeniu centralnego systemu uwierzytelnienia usług.
Tymczasem moduł Clustering Service pozwoli przenosić maszyny wirtualne pomiędzy
hostami Hyper-V bez zatrzymywania.

2. Instalacja oprogramowania
monitorującego System

Center Operations Manager. Pozwoli ono
sprawdzić, czy wykonana do tej pory konfiguracja dobrze działa i usunąć
ewentualne błędy. Docelowo SCOM będzie odpowiadał za całościowe monitorowanie
środowiska chmury prywatnej: warstwy fizycznej, sieciowej, wirtualnej, systemów
operacyjnych gości, zawartych w nich aplikacji, a nawet elementów
rozwiązania realizowanych nie tylko w chmurze prywatnej, ale także
w chmurze publicznej. Na podstawie tych danych SCOM stworzy raporty
dostępności usług dla końcowego odbiorcy oraz pomoże szybko rozwiązać
pojawiające się problemy w tak złożonej architekturze.

 

3. Instalacja
rozwiązania do zarządzania heterogenicznym środowiskiem wirtualnym System
Center Virtual
Machine Manager.
Jest to element pozwalający na
tworzenie maszyn wirtualnych; odpowiada za dobór odpowiednich hostów
wirtualizacyjnych do ich uruchomienia oraz umożliwia kontrolę całego cyklu
życia takiej maszyny. Za jego pomocą tworzona jest biblioteka wzorców
opisujących standardowe maszyny wirtualne, pracujące w nich systemy
operacyjne, również z osadzonymi w nich aplikacjami. Korzystając
z tych wzorców, użytkownicy (lub elementy automatyki chmury prywatnej)
będą mogli szybko tworzyć usługi działające na żądanie. Biblioteka może również
przechowywać usługi chwilowo niewykorzystywane, których jednak nie chcemy
z chmury usuwać.

4. Portal
samoobsługowy – System Center Service Manager.
Aby było możliwe traktowanie zasobów chmury jako usługi IaaS, należy
zainstalować portal samoobsługowy, za pomocą którego odbiorcy usług będą mogli
rezerwować zasoby obliczeniowe. Jeśli administrator chmury zatwierdzi takie
zgłoszenie, to w ramach tych rezerwacji użytkownicy będą mogli
samodzielnie tworzyć maszyny wirtualne i usługi. Mogą do tego celu
wykorzystywać wcześniej przygotowane przez administratora wzorce lub tworzyć
własne modele od podstaw. Elementem portalu są panele raportowe, służące do
rozliczania odbiorców usług z wykorzystanych w okresie rozliczeniowym
zasobów.

5. Wdrożenie
systemu automatyzacji czynności administracyjnych w środowiskach
heterogenicznych – System Center Orchestrator.
Ponieważ środowisko chmury prywatnej oraz świadczone za jego pomocą usługi
z czasem będą coraz bardziej złożone, można uzupełnić tworzone
rozwiązanie elementami pełnej automatyzacji. Za pomocą System Center
Orchestrator można też tworzyć i nadzorować środowiska usługowe składające
się z wielu różnych maszyn wirtualnych i aplikacji. Na przykład,
jeśli systemy monitoringu zidentyfikują wąskie gardło w warstwie
prezentacji aplikacji przez serwery webowe, system może automatycznie powołać
kolejną maszynę wirtualną z taką usługą i zintegrować ją z już
działającym środowiskiem. W ten sposób będzie możliwe automatyczne
reagowanie na zmieniające się warunki obciążeń poszczególnych elementów usługi.

6.
Przygotowanie środowiska raportowego.
Odbiorcy biznesowi
usług z chmury często odnoszą się do poziomu dostępności świadczonych
usług i chcą wiedzieć, za co płacą. Dlatego warto stworzyć portal, który
w przystępny sposób umożliwi graficzne przedstawienie realnych parametrów
dostępności usług na podstawie wcześniej założonych w umowie kryteriów.

Artykuł Chmura gotowa na wszystko pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/chmura-gotowa-na-wszystko/feed/ 0
Zarządzanie aplikacjami w chmurze prywatnej https://crn.sarota.dev/artykuly/zarzadzanie-aplikacjami-w-chmurze-prywatnej/ https://crn.sarota.dev/artykuly/zarzadzanie-aplikacjami-w-chmurze-prywatnej/#respond Thu, 14 Mar 2013 09:00:00 +0000 https://crn.pl/default/zarzadzanie-aplikacjami-w-chmurze-prywatnej/ Jednym z celów tworzenia chmury prywatnej Microsoft jest zapewnienie wysokiej wydajności aplikacji i usług ich właścicielom. Realizacja tego założenia jest możliwa dzięki narzędziom System Center z zaawansowanymi funkcjami zarządzania i monitorowania aplikacji.

Artykuł Zarządzanie aplikacjami w chmurze prywatnej pochodzi z serwisu CRN.

]]>

System Center 2012 SP1 umożliwia zarządzanie aplikacjami
w chmurze prywatnej na wielu płaszczyznach. Jedną z najważniejszych
jest samodzielna obsługa aplikacji i monitorowanie wydajności programów.
System Center 2012 SP1 wprowadza również szereg rozszerzeń, które umożliwiają
dostawcom usług oferowanie klientom chmury obliczeniowej w modelu
infrastruktury jako usługi (Infrastructure-as-a-Service).

 

Samodzielna obsługa aplikacji

Na pozór może się
wydawać, że samodzielna obsługa aplikacji przez użytkowników spowoduje
przeniesienie nadzoru nad aplikacją z administratorów centrów danych na
właścicieli programów, a to spowoduje chaos i dodatkową pracę dla
administratora. Jednakże nie jest to słuszne przypuszczenie. Użytkownik
aplikacji ma bowiem możliwość powoływania nowych usług z większą
autonomią, jednakże zawsze dzieje się to z uwzględnieniem udostępnionych
mu zasobów w chmurze i zestawu uprawnień, jakie posiada.
Administratorzy centrów danych mają wpływ na takie przydzielanie uprawnień
i zasobów w ramach ustalonej polityki, aby tworzone usługi nie
prowadziły do wzajemnych konfliktów z aplikacjami innych właścicieli,
działających w ramach tej samej chmury prywatnej.

System Center 2012 SP1 używa szablonów usług, w których
zapisywane są ustawienia dotyczące nie tylko bezpośrednio aplikacji, ale także
infrastruktury, w której będzie działać, czyli np. pamięci masowej, mocy
obliczeniowej, konfiguracji systemu operacyjnego i baz danych. Właściciel
programu dostarcza jego specyfikację, czyli definiuje jego strukturę, określa
potrzebne zasoby i profil wydajności niezbędny do zapewnienia
odpowiedniego poziomu usług. Na podstawie tych informacji administrator centrum
danych tworzy szablon usługi, wykonuje testy funkcjonalne, a następnie
przydziela odpowiednie uprawnienia właścicielowi aplikacji do jej wdrożenia.

Poprzez moduł System
Center 2012 SP1 App Controller właściciel aplikacji ma możliwość samodzielnego
jej wdrażania. Może uruchamiać i zatrzymywać instancje swojego programu
zgodnie z bieżącym zapotrzebowaniem. Samodzielna obsługa aplikacji
realizowana jest bez bezpośredniego zaangażowania IT. Ponieważ jednak aplikacje
działają w ramach ustalonych szablonów usług, nadal podlegają całkowitej
kontroli administratorów centrów danych.

Aktualizacja aplikacji
może obywać się przez stworzenie i udostępnienie nowej wersji szablonu
usługi. Zmiany mogą zostać od razu wymuszone przez administratora centrum
danych (gdy np. wymagane są zmiany zabezpieczeń) lub przekazane właścicielowi
aplikacji do zastosowania w najdogodniejszym momencie z punktu
widzenia prowadzonej działalności.

 

Monitorowanie wydajności programów

System Center 2012 SP1
umożliwia monitorowanie obejmujące zarówno podstawową infrastrukturę, jak
również wszystkie aspekty działania uruchomionych aplikacji. Wydajność
programów jest monitorowana poprzez 
śledzenie:

– w infrastrukturze wykorzystywanej przez aplikację
– fizycznych elementów, takich jak sieci i pamięci masowe, wirtualne
platformy i systemy operacyjne;

– w elementach aplikacji po stronie serwera – wydajności
wykonywania aplikacji wewnątrz szablonu usługi;

– w elementach aplikacji po stronie klienta – jakości
działania aplikacji, z której korzysta użytkownik końcowy;

– prognozowanego maksymalnego obciążenia – umożliwia to
wykrycie błędów, które mogły zostać niezauważone lub nie były możliwe do
wykrycia przy mniejszym obciążeniu.

Gromadzenie tych informacji umożliwia administratorowi
centrum danych budowanie bogatych paneli zarządzania i wizualizacji, które
umożliwiają szybką kontrolę działania aplikacji w ramach zdefiniowanych
poziomów usług. Zestawienia te mogą być przekazywane właścicielom aplikacji,
aby dać im przejrzystą i szczegółową informację o wydajności
i dostępności ich oprogramowania.

Operations Manager
w System Center 2012 SP1 zapewnia bardzo szczegółowy wgląd
w aplikacje i wyniki ich diagnostyki. Umożliwia to monitorowanie
wydajności i ostrzeżenia o występujących problemach nawet
z podaniem linii kodu oraz możliwością przechwycenia stosu wywoływanych
funkcji. Integracja modułu Service Manager wraz z Visual Studio Team
Foundation Server umożliwia wykorzystywanie informacji diagnostycznych przez
właściciela aplikacji, co może wspomóc pracę jego programistów, którzy są
autorami jej kodu. Nowością w wersji z Service Pack 1 jest
wsparcie monitoringu dla aplikacji ASP.NET MVC, usług WCF, usług Windows.
Możliwe jest nawet monitorowanie stron i witryn z SharePoint 2010.

 

Zarządzania aplikacjami niezależne od rodzaju chmury

W przyszłości większość firm będzie korzystać ze środowisk
hybrydowych, w skład których będą wchodzić jednocześnie chmury prywatne
i publiczne. System Center 2012 SP1 udostępnia wspólny zestaw narzędzi do
zarządzania aplikacjami zarówno w chmurze prywatnej, jak i publicznej.
Integracja z Windows Azure, która została wprowadzona w Service Pack
1, zapewnia firmom bezproblemową współpracę z aplikacjami i maszynami
wirtualnymi, uruchomionymi w chmurze publicznej Microsoft.

Firmy powinny rozważyć
wykorzystanie aplikacji hybrydowych wtedy, gdy niezbędne jest łączenie się
z serwisami oferowanymi w różnych chmurach, a jednocześnie
wskazane jest zarządzanie nimi z jednego miejsca. Kontroler aplikacji (App
Controller) zapewnia szerokie wsparcie dla zarządzania subskrypcjami
w Windows Azure oraz hostowanymi usługami. Dotyczy to zarówno zarządzania
subskrypcjami, jak i zarządzania uruchomionymi aplikacjami. Kontroler
aplikacji, a więc i użytkownicy posiadający prawa do samodzielnej
obsługi aplikacji, mogą uruchomiać i zatrzymywać aplikacje, a także
skalować przyznane jej zasoby w publicznej chmurze Azure.

Przenoszenie maszyn wirtualnych Hyper-V bezpośrednio do
Windows Azure obsługuje Virtual Machine Manager. Choć nie jest to pełna
migracja (taka jaka jest możliwa we własnym centrum danych), to w ten
sposób realizowane jest szybkie przeniesienie wirtualnych maszyn
z serwerów lokalnych do chmury publicznej. Możliwy jest również scenariusz
odwrotny – przeniesienie maszyny wirtualnej działającej w Azure do
węzła Hyper-V, znajdującego się w lokalnym centrum danych. Ponadto
wirtualne dyski zapisane w Virtual Machine Manager można przenieść
bezpośrednio do galerii obrazów maszyn wirtualnych (Virtual Machine Image
Gallery) w Windows Azure, co pozwala w sposób samodzielny tworzyć
wirtualne maszyny w chmurze publicznej.

Możliwość zarządzania aplikacjami nie tylko
w prywatnych chmurach, ale także w chmurach publicznych, jest
podstawowym wymogiem dla wielu organizacji, które potrzebują swobody wyboru
infrastruktury, w jakiej będą uruchamiać swoje oprogramowanie. Często
zmiana miejsca działania aplikacji i dostępu do niej jest wymuszona
potrzebami biznesowymi firmy. Operations Manager 2012 zapewnia dostawcom
aplikacji śledzenie wydajności i innych wskaźników aplikacji uruchomionych
w trzech rodzajach chmur. Umożliwia to właścicielom programów zarządzanie
nimi niezależnie od ich fizycznej lokalizacji, w której zostały
ostatecznie wdrożone, i pełny wgląd w działanie wszystkich
posiadanych aplikacji.

Artykuł Zarządzanie aplikacjami w chmurze prywatnej pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/zarzadzanie-aplikacjami-w-chmurze-prywatnej/feed/ 0
Zarządzenie chmurą i centrum danych https://crn.sarota.dev/artykuly/zarzadzenie-chmura-i-centrum-danych/ https://crn.sarota.dev/artykuly/zarzadzenie-chmura-i-centrum-danych/#respond Thu, 28 Feb 2013 20:41:00 +0000 https://crn.pl/default/zarzadzenie-chmura-i-centrum-danych/ Technologia chmury przekształca sposób świadczenia i użytkowania usług informatycznych w przedsiębiorstwach, oferując bardziej wydajną infrastrukturę i przewidywalne działanie aplikacji.

Artykuł Zarządzenie chmurą i centrum danych pochodzi z serwisu CRN.

]]>

Użytkownicy biznesowi odnotują i zwiększą elastyczność
działania, gdy zaczną korzystać z usług świadczonych w modelu IT as a
Service. Usługi te mogą być samodzielnie przydzielane za pośrednictwem
portalu, umożliwiają skalowanie zgodnie z potrzebami użytkownika i są rozliczane na
podstawie faktycznego wykorzystania.

Administratorzy mogą dodatkowo zaoszczędzić, tworząc pule zasobów
współużytkowanych w chmurze prywatnej, z zasobów której korzysta wielu użytkowników dokładnie w takim zakresie, w jakim potrzebują. Elastyczność
jest wynikiem wykorzystania zasobów chmury publicznej uzupełniających
środowisko dostępne na miejscu. Oprogramowanie System Center 2012 zapewnia
przedsiębiorstwom uzyskanie korzyści zarówno z chmury prywatnej, jak i
publicznej, z uwzględnieniem wszelkich wyjątkowych potrzeb biznesowych klienta.

System Center umożliwia również uporządkowanie
dotychczasowych zasobów informatycznych (sieci, pamięci masowych i mocy
obliczeniowej) w ramach chmury prywatnej. Można ją łatwo zintegrować z
usługami chmury publicznej i uzyskać chmurę hybrydową zarządzaną przy
życiu jednego interfejsu.

 

Obsługa środowisk
heterogenicznych

Oprogramowanie System Center 2012 umożliwia integrację
zróżnicowanych technologii w ramach jednolitej chmury prywatnej:

– centralne zarządzanie różnymi wirtualizatorami – w tym Windows Server Hyper-V, VMware vSphere oraz Citrix XenServer – za
pośrednictwem jednego interfejsu,
– monitorowanie systemów Windows Server i Sun
Solaris oraz różnych dystrybucji systemów Linux i UNIX,
– Integracja zestawów narzędzi firm HP, CA, BMC,
EMC i VMware w zautomatyzowany workflow.

Automatyzacja
procesów

Wydajność chmury prywatnej można poprawić, automatyzując
standardowe procesy, takie jak zarządzanie incydentami, zmianami i wersjami.

Infrastruktura
samoobsługowa

Zasoby mocy obliczeniowej, sieci i pamięci masowej można
standaryzować w ramach platformy chmury prywatnej, a następnie można
przydzielać je do jednostek biznesowych przy użyciu usługi Active Directory.
Katalog usług umożliwia osobom odpowiedzialnym za aplikacje określanie
zapotrzebowania i korzystanie z zasobów w trybie samoobsługowym.

 

System Center 2012

         App
Controller

        
Operations
Manager

        
Orchestrator

        
Service
Manager

        
Virtual
Machine Manager

        
Data
Protection Manager

        
Endpoint
Protection

        
Configuration
Manager

 

 

PRECYZYJNE PROGNOZOWANIE
POZIOMÓW USŁUG (SLA)


Szczegółowe
monitorowanie aplikacji i diagnozowanie problemów

Pełna integracja z aplikacjami .NET pozwala programistom
łatwo określać pierwotne przyczyny problemów z aplikacjami nawet na poziomie
pojedynczych wierszy kodu, co przyspiesza wykrywanie i usuwanie błędów. Łatwe w
obsłudze pulpity nawigacyjne i raporty umożliwiają sprawne monitorowanie stanu
umów dotyczących poziomu usług (SLA) i przekazywanie informacji na ten temat.
Integracja z oprogramowaniem Visual Studio umożliwia płynną współpracę między
zespołami programistycznymi i operacyjnymi w zakresie rozwiązywania problemów i
zapewniania zgodności i z warunkami umów SLA.

Standaryzacja
dostarczania usług aplikacji

Szablony usług umożliwiają ich modelowanie, dzięki czemu
osoby odpowiedzialne za aplikacje mogą stale i niezawodnie opracowywać,
konfigurować i wdrażać usługi aplikacji w chmurze. Operacje wdrażania usług w
chmurach publicznych i prywatnych można wizualizować i ponownie konfigurować.

Uproszczone
zarządzanie aplikacjami

Technologia wirtualizacji aplikacji na serwerze (SAV), która
eliminuje ich zależność od konkretnej infrastruktury, ułatwia wdrażanie takiego
oprogramowani. Funkcja SAV pozwala także ograniczyć nakłady administracyjne i
wydatki ze względu na uproszczenie obsługi aplikacji dzięki zarządzaniu
opartemu na obrazach.


ZARZĄDZANIE CHMURĄ
PRYWATNĄ I PUBLICZNĄ W JEDNYM MIEJSCU

Samodzielna obsługa
aplikacji w chmurze

Osoby odpowiedzialne za aplikacje mają dostęp do
zintegrowanych funkcji samoobsługi dzięki jednolitemu interfejsowi oraz
mechanizmom kontroli nad chmurą prywatną i usługami aplikacyjnymi Windows
Azure.

Elastyczna delegacja
pod kontrolą

Środowiska chmury można przygotować i obsługiwać w ramach
wielu centrów danych, infrastruktur (firm Microsoft, VMware i innych) i
dostawców usług, takich jak platforma Windows Azure.

Dzięki delegowaniu uprawnień i elastycznej samoobsłudze specjaliści
IT mogą zapewnić bezpieczeństwo i zgodność z przepisami bez rezygnacji ze
scentralizowanej kontroli nad środowiskiem IT.

Zarządzanie
środowiskami fizycznymi, wirtualnymi i chmurą

Dobrze znane funkcje zarządzania lokalnego można również
stosować w hybrydowych środowiskach chmury.

Więcej informacji na temat rozwiązania System Center 2012
można znaleźć pod adresem:

http://www.chmuraprywatna.microsoft.pl

Microsoft
System Center 2012 zmienia sposób świadczenia usług informatycznych i
udostępniania aplikacji, optymalizując wykorzystanie zasobów w chmurze
prywatnej i publicznej dzięki zarządzaniu środowiskiem przy użyciu jednego
interfejsu.

Rozwiązania
System Center 2012 do zarządzania chmurą i centrum danych oferują następujące
możliwości:

– UDOSTĘPNIANIE
ELASTYCZNEJ, OPŁACALNEJ INFRASTRUKTURY OPARTEJ NA POSIADANYCH ZASOBACH

Integracja
heterogenicznych centrów i tworzenie pul w środowisku chmury prywatnej.
Samoobsługowy dostęp użytkowników biznesowych do infrastruktury przy
utrzymywaniu pełnej kontroli nad zasobami informatycznymi.

– PRECYZYJNE
PROGNOZOWANIE POZIOMÓW USŁUG (UMÓW SLA)

Szczegółowy
wgląd w stan aplikacji działających na serwerach i w maszynach wirtualnych w
celu szybszego rozwiązywania problemów.

– ZARZĄDZANIE
CHMURĄ PRYWATNĄ W JEDNYM MIEJSCU

Wdrożenie
własnej chmury hybrydowej dzięki swobodnemu wyborowi miejsca uruchamiania
aplikacji – w chmurze prywatnej lub publicznej. Zarządzanie całym środowiskiem
na jednym ekranie.

Artykuł Zarządzenie chmurą i centrum danych pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/zarzadzenie-chmura-i-centrum-danych/feed/ 0