Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/konteneryzacja/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Fri, 11 Feb 2022 22:48:07 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 7 obszarów IT, które zyskają na znaczeniu w 2022 r. https://crn.sarota.dev/aktualnosci/7-obszarow-it-ktore-zyskaja-na-znaczeniu-w-2022-r/ Fri, 11 Feb 2022 17:40:08 +0000 https://crn.pl/?p=272452 Do tej pory królowały automatyzacja i chmura. Eksperci przewidują, co czeka branżę w tym roku.

Artykuł 7 obszarów IT, które zyskają na znaczeniu w 2022 r. pochodzi z serwisu CRN.

]]>

Oto 7 kluczowych trendów w IT, które zyskają na znaczeniu według 7N – firmy zajmującej się kontraktowaniem oraz konsultingiem IT.

Jak zauważają eksperci, nie są to nowe zjawiska, ale obecnie wyróżnia je skala zastosowania. Wykorzystanie big data czy NLP, popularyzacja m-commerce to już nie tylko domena gigantów IT, ale rzeczywistość lub bliska przyszłość większości firm, nie tylko z branży IT.

1. Cyberbezpieczeństwo

Przyspieszenie cyfryzacji sprawia, że organizacje priorytetowo traktują zapewnienie bezpieczeństwa i zarządzanie ryzykiem w tym obszarze. Zwłaszcza, że ryzyko rośnie. Według Check Pointa 87 proc. organizacji doświadczyło prób nielegalnego wykorzystania luk w zabezpieczeniach, a 85 proc. ma trudności w zapewnieniu bezpieczeństwa w środowisku chmurowym. W prawie co drugim przedsiębiorstwie pracownik pobrał złośliwe oprogramowanie na swoją służbową komórkę.

Priorytet cyberbezpieczeństwa powoduje to ogromny popyt na specjalistów w tej dziedzinie, który zapewne będzie jeszcze większy w 2022 r.

Niebór talentów szacuje się na co namniej 17,5 tys. osób – według raportu HackerU “Cybersecurity. Raport o rynku pracy w Polsce”. Aż 60 proc. specjalistów tygodniowo otrzymuje 1 – 3 warte uwagi propozycje od rekruterów.

2. Mikroserwisy i konteneryzacja

Z potrzebą zachowania bezpieczeństwa związany jest wzrost znaczenia architektury mikroserwisowej. W dużym uproszczeniu polega ona na budowie aplikacji opartych na oddzielnych jednostkach komunikujących się ze sobą, zamiast dużego monolitycznego tworu.

Następnie aplikacja mikroserwisowa umieszczana jest w wirtualnych kontenerach, dzięki czemu jest bardziej stabilna i szybsza, a ewentualne usterki wyłączają z użycia poszczególne moduły, nie zaś całość.

Dzięki konteneryzacji łatwiejsze jest również zarządzanie aplikacją, budowanie jej skalowalności i automatyzacja.

W ten sposób działają platformy takie jak Netflix, Uber, Bolt czy HBO – przy intensywnym użytkowaniu aplikacja działa sprawnie, odwrotnie do np. przeciążonych serwerów stron czy gier komputerowych, gdy wiele osób jest nimi zainteresowanych w tym samym czasie.

3. mCommerce

Obecnie ponad 150 tys. polskich firm prowadzi sprzedaż usług i produktów online, z czego ⅓ to typowe sklepy internetowe. Według raportu Gemiusa “E-commerce w Polsce 2021” najmłodsi ankietowani zdecydowanie częściej korzystają ze smartfona (92 proc.) niż z innego urządzenia robiąc zakupy online.

Powoduje to zapotrzebowanie na programistów, którzy umieją tworzyć aplikacje mobilne, ze znajomością takich języków jak Java czy Kotlin dla środowiska Android oraz Swift dla iOS .

4. Big Data

W dobie pandemii znacząco wzrósł stopień cyfryzacji niemal wszystkich sektorów gospodarki, pojawia się coraz więcej danych do obróbki. W wielu firmach automatyzacja procesów zarządzania danymi stała się priorytetowa.

Według Gartnera, 80-90 proc. danych jest obecnie nieustrukturyzowanych – do tego tempo przyrostu nowych surowych danych jest trzykrotnie wyższe niż ustrukturyzowanych. Dlatego poszukiwani są i będą eksperci potrafiący samodzielnie dostrzec, gdzie i jak poprawić jakość i strukturę danych.

5. AI i machine learning

Sztuczna inteligencja i uczenie maszynowe to jakby dwie strony tej samej monety. AI wykorzystuje modele matematyczne do opisu pewnych obiektów lub zjawisk i rozpoznawania wzorców. Zaś machine learning to praktyczne zastosowanie AI z wykorzystaniem danych.

W biznesie wciąż obecne jest przekonanie, że sztuczna inteligencja to temat przyszłości albo domena gigantów technologicznych. Tymczasem rozwiązania oparte na AI wdrażają sklepy internetowe, budując silniki rekomendacyjne, polecające użytkownikom produkty na podstawie dotychczasowych zakupów czy lokalizacji. Opieka zdrowotna coraz częściej korzysta z AI w diagnostyce. W różnych serwisach coraz częściej można spotkać się z czatbotami.

6. Natural Language Processing (NLP)

Wzrost popularności NLP, czyli przetwarzania języka naturalnego, wynika z rozwoju sztucznej inteligencji. Zastosowanie NLP – np. w voicebotach – zaczęło się już kilka lat temu. W ciągu ostatnich dwóch lat widać jednak wyraźnie zwiększone zainteresowanie tym obszarem, szczególnie w branżach farmaceutycznej i medycznej, a zwłaszcza firmach i instytucjach zajmujących się diagnostyką i teleporadami.

NLP obejmuje wszystkie aspekty dążące do tego, by komputer rozumiał nasz język i umiał go wykorzystywać, czyli są to m.in. autokorekta tekstu, mechanizmy filtrowania spamu, automatyczne uzupełnianie i podpowiedzi, wsparcie w tłumaczeniach, czy wreszcie przetwarzanie tekstu pisanego na mowę”– wyjaśnia Klaudia Białousz z 7N.

7. Automatyzacja za pomocą low-code/no-code i code gen

Znaczący niedobór programistów sprawia, że firmy sięgają po platformy low-code /no-code.

Według Gartnera, rynek low-code w 2021 r. urósł o 23 proc. r/r, co z jednej strony wygląda imponująco, ale wskazuje też, że to wciąż nowość a nie masowe zjawisko.

Rozwiązania low-code pozwalają budować aplikacje bez zaawansowanej wiedzy z zakresu programowania, ponadto ułatwiają i przyspieszają pracę programistów.

Przy nieskomplikowanych i jednorazowych zastosowaniach skorzystanie z no-code lub low-code okazuje się prostsze i tańsze niż zaangażowanie zespołu programistów. Do tego służą także generatory kodów (cod gen), które transponują kod źródłowy w gotowe formuły kodu maszynowego.

Artykuł 7 obszarów IT, które zyskają na znaczeniu w 2022 r. pochodzi z serwisu CRN.

]]>
Znamienna transakcja na rynku pamięci masowych https://crn.sarota.dev/aktualnosci/znamienna-transakcja-na-rynku-pamieci-masowych/ https://crn.sarota.dev/aktualnosci/znamienna-transakcja-na-rynku-pamieci-masowych/#respond Fri, 18 Sep 2020 09:15:04 +0000 http://crn.pl/?p=246815 Pure Storage planuje zakup amerykańskiego startupu Portworx. To kolejny znak, że dostawcy pamięci masowych coraz poważniej myślą o konteneryzacji.

Artykuł Znamienna transakcja na rynku pamięci masowych pochodzi z serwisu CRN.

]]>
Wartość transakcji ma wynosić 370 mln dol. w gotówce, a więc mamy do czynienia z największym przejęciem w dotychczasowej historii Pure Storage. Po finalizacji zakupu, co ma nastąpić do końca września, Portworx stanie się jednostką biznesową Pure Storage kierowaną nadal przez Murli Thirumale, swojego obecnego CEO.

Pure Storage został założony w 2009 r. i  jest jednym z kluczowych graczy w segmencie macierzy all-flash. W ubiegłym roku firma wygenerowała przychody w wysokości 1,36 mld dol. Z kolei Portworx działa na rynku od sześciu lat. Oprogramowanie PX Portworx łączy serwery, macierze SAN, NAS, a także instancje chmurowe. System realizuje szeroką gamę usług związanych z obsługą danych dla kontenerów zarządzanych przez Kubernetes, takich jak klonowanie, tworzenie migawek, replikacja, migracja czy też szyfrowanie danych. Startup z Los Altos posiada  około 140 klientów, a jego lista referencyjna jest wyjątkowo interesująca, bowiem znajdują się na niej tak znane firmy jak Carrefour, Comcast, DreamWorks, Ford, General Electric czy Lufthansa. Średnia wartość transakcji wynosi około 100 tys. dol. Warto dodać, ze Pure Storage i Portworx mają też kilku wspólnych klientów obsługujących technologię kontenerową – T-Mobile, Comcast czy też Royal Bank of Canada.

Warto zwrócić uwagę, że Pure Storage nie jest pierwszym dostawcą pamięci masowej, który dostrzega rosnącą rolę Kubernetes. Przykładowo, na początku tego roku NetApp przedstawił Project Astra, nową platformę umożliwiającą trwałe przechowywanie danych w środowiskach Kubernetes. Z kolei Commvault w  lipcu wprowadził kompleksową obsługę Kubernetes do swojej technologii pamięci masowych definiowanych programowo (Hedvig).

Artykuł Znamienna transakcja na rynku pamięci masowych pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/aktualnosci/znamienna-transakcja-na-rynku-pamieci-masowych/feed/ 0
Małe start-upy i wielkie zbiory danych https://crn.sarota.dev/artykuly/male-start-upy-i-wielkie-zbiory-danych/ https://crn.sarota.dev/artykuly/male-start-upy-i-wielkie-zbiory-danych/#respond Tue, 12 May 2020 12:04:00 +0000 https://crn.pl/default/male-start-upy-i-wielkie-zbiory-danych/ W segmencie rozwiązań do ochrony danych i zarządzania nimi pojawia się coraz więcej niszowych produktów i usług. W nieodległej przyszłości część z nich trafi do głównego nurtu, więc warto już teraz trzymać rękę na pulsie.

Artykuł Małe start-upy i wielkie zbiory danych pochodzi z serwisu CRN.

]]>
Zacznijmy od pytania, co lepsze: wielofunkcyjny kombajn czy wyspecjalizowany system, adresowany do stosunkowo wąskiej grupy użytkowników? Przed takim dylematem stają zarówno producenci rozwiązań IT, jak i ich użytkownicy. Simon Taylor, CEO i założyciel Hycu, wybrał drugą z wymienionych opcji. Jego firma dwa lata temu wprowadziła na rynek specjalistyczne oprogramowanie, przeznaczone do backupu danych przetwarzanych przez systemy hiperkonwergentne Nutanix. Ze względu na ograniczoną grupę docelową wydawał się to nieco szalony pomysł. Jednak warto przypomnieć, że na podobny krok zdecydował się kilkanaście lat temu Veeam, opracowując narzędzia do backupu maszyn wirtualnych VMware’a. 

Oczywiście nie wiadomo, czy Hycu osiągnie podobny sukces, choć zdaje się być na dobrej drodze do tego celu. Podczas niedawnego spotkania z dziennikarzami Simon Taylor oznajmił, że producent ma już 1,2 tys. klientów w 60 krajach. Dla porównania, globalnie z produktów Nutanixa korzysta ponad 14 tys. firm i instytucji – różnica jest więc duża, ale nie kolosalna. Ciekawostką jest fakt, że oprogramowanie Hycu pracuje również w Polsce, a jego użytkownikiem jest Adama – globalna firma wytwarzająca środki ochrony roślin. Arkadiusz Szymański, IT manager w Adamie, przyznaje, że przed zakupem nie miał pojęcia o istnieniu Hycu. Niemniej rozbudowa Nutanixa sprawiła, że rozpoczął poszukiwania nowego narzędzia do backupu i trafił na ofertę warszawskiego integratora Vayana Technologie Informatyczne. 

– Zapoznałem się z wersją demo programu. Okazało się, że aplikacja łatwo się konfiguruje, ma przejrzysty interfejs, zbliżony do Prism Nutanix, i nie obciąża systemu. Posługiwanie się tym oprogramowaniem jest niezwykle proste, nie trzeba być specjalistą od backupu ani uczestniczyć w seminariach technicznych. Po prostu klikasz i działa – przekonuje Arkadiusz Szymański. 

Specjaliści Vayana jak na razie mogą pochwalić się tym jednym wdrożeniem Hycu, choć to być może wcale nie najgorszy wynik, jeśli wziąć pod uwagę, że integrator aktywnie zaangażował się w sprzedaż Nutanixa dopiero pod koniec 2018 r. 

– Nie ukrywam, że byłem nieco zaskoczony, że udało nam się sprzedać ten produkt, bowiem mamy na koncie dopiero kilka wdrożeń systemów Nutanixa. Cieszy nas reakcja klienta, który jest tak zadowolony z oprogramowania, że zarekomendował je do stosowania w ramach całej grupy – tłumaczy Andrzej Fitt, Business Development Manager w Vayana Technologie Informatyczne. 

 

Jednolita platforma zamiast silosów

Wielu przedsiębiorców buduje systemy ochrony danych składające się z narzędzi pochodzących od różnych producentów. Nie jest to najlepsza opcja z uwagi na trudności związane z zarządzaniem heterogenicznymi rozwiązaniami. Taki stan rzeczy nie tylko irytuje pracowników działu IT, lecz także nakręca spiralę kosztów. Wyjściem z sytuacji może być wdrożenie zunifikowanej platformy. Amerykańska firma Actifio opracowała autorską technologię Virtual Data Pipeline, która umożliwia w ciągu kilku minut stworzenie wirtualnych kopii danych niezajmujących dodatkowej przestrzeni dyskowej. Zastosowanie wirtualizacji pozwala uniezależnić proces backupu i ochrony od infrastruktury pamięci masowej. W rezultacie użytkownicy nie muszą płacić za licencje na oprogramowanie i za sprzęt związany z tworzeniem kopii zapasowych, migawek, odzyskiwaniem danych po awarii, analizą i testowaniem. Wszystkie wymienione funkcje realizuje pojedyncza platforma. Ash Ashutosh, CEO Actifio, podkreśla, że specjaliści od storage’u rozmawiają przede wszystkim o woluminach, systemach plików czy jednostkach LUN, a jego firma patrzy na ochronę danych przez pryzmat oprogramowania.

Start-up z Waltham (przedmieścia Bostonu) rozwija platformę, koncentrując się na trzech filarach: aplikacjach, SLA i ciągłym dostępie do informacji. W Actifio zdają sobie sprawę, że wraz z postępującą cyfryzacją przedsiębiorcy zaczną stawiać coraz wyższe wymagania wobec rozwiązań przeznaczonych do zarządzania kopiami danych. Na liście życzeń zgłaszanych przez klientów znajdzie się zarządzanie zasobami znajdującymi się w różnych środowiskach IT. IDC przewiduje, że do 2022 r. aż 70 proc. firm i instytucji wdroży rozwiązania, a także uruchomi procesy związane z zarządzaniem danymi w chmurach prywatnych, publicznych i hybrydowych, należących do różnych usługodawców. 

Warto przy tym zaznaczyć, że system Actifio współpracuje obecnie z chmurami AWS, Microsoft Azure, Google Cloud Platform, IBM COS, Oracle i VMware. W pierwszym kwartale tego roku w sprzedaży pojawi się najnowsza wersja oprogramowania, będąca odpowiedzią na dynamiczne zmiany zachodzące w obszarze ochrony danych.

– Tworzenie kopii zapasowych w chmurze publicznej to rutynowa koncepcja. To potrafi robić dziś każdy i nadszedł czas na kolejny krok. Nie jest bowiem sztuką przywracanie do pracy jednej maszyny wirtualnej. Zdecydowanie większe wyzwanie stanowi szybkie odzyskiwanie tysiąca wirtualek w chmurze publicznej bądź w środowisku lokalnym za pomocą jednego kliknięcia. Nasz najnowszy system realizuje wymienione zadania – zapewnia Brian Reagan, CMO Actifio.

Wśród nowości znajduje się też szybkie klonowanie baz danych do kontenerów zarządzanych przez platformę Kubernetes czy też możliwość śledzenia bloku zmian wstecznych, dzięki czemu system przywraca tylko dane wymagane do odzyskania.

Actifio, które działa na rynku od ponad dekady, ma 3,6 tys. klientów w 38 krajach. Kieruje swoją ofertę przede wszystkim do dużych przedsiębiorstw, których przychody często przekraczają miliard dolarów. System jest chętnie sprzedawany przez  znanych producentów z branży IT. Na liście resellerów Actifio znajdują się m.in.: IBM, Hitachi, Lenovo czy NEC. Wartość firmy wycenia się na ponad miliard dolarów, a inwestorzy venture capital jak do tej pory zasilili start-up kwotą 325 mln dol. 

Igneous – liczą się tylko petabajty

Kiran Bhagesphur od kilkunastu lat zajmuje się dużymi zbiorami danych. Najpierw kierował zespołem pracującym nad systemem Isilon OneFS, a kiedy start-up przejęło EMC, został wiceprezesem dywizji Isilon Storage. Jednak w 2013 r. opuścił korporację i wystartował z własnym biznesem, pod nazwą Igneous. Jak się łatwo domyślić, jego firma skoncentrowała się na opracowywaniu rozwiązań do przechowywania danych niestrukturyzowanych. Na ten cel udało się pozyskać od funduszy venture capital 65 mln dol. Lawinowy przyrost plików z jednej strony jest wodą na młyn dla producentów pamięci masowych, z drugiej zaś niesie z sobą kłopoty.

 

– W korporacyjnych systemach NAS spoczywa około 70 EB nieustrukturyzowanych danych. Firmy korzystają z urządzeń pochodzących od różnych producentów, a magazynowane pliki znacznie różnią się wielkością. To utrudnia procesy związane z ochroną, wizualizacją i migracją danych – mówi Christian Smith, wiceprezes Igneous. 

Choć konkurencja w segmencie rozwiązań do magazynowania plików jest mocna, Igneous próbuje wysforować się do przodu, oferując usługi związane z przechowywaniem danych niestrukturyzowanych o bardzo dużych objętościach. 

– Wśród różnego rodzaju ofert ciężko znaleźć ciekawą propozycję dla klientów przechowujących miliardy, a nawet biliony plików o łącznej objętości od 10 do 100 petabajtów. To obszar, który zamierzamy zagospodarować – mówi Christian Smith. 

Start-up oferuje usługę UDMaaS (Unstructured Data Management as a Service) umożliwiającą migrację rzadko lub w ogóle nieużywanych plików z NAS-ów korporacyjnych (NetApp NAS, Dell EMC Isilon, Qumulo i Pure Storage FlashBlade) do chmur AWS, Microsoft Azure i Google Cloud Platform lub wskazanego lokalnego magazynu danych. Jednym z największych wyzwań jest skanowanie miliardów systemów plików. W przypadku tradycyjnych rozwiązań proces ten zajmuje kilka dni. Igneous opracował własny mechanizm pozwalający skanować do 30 mld plików dziennie. Start-up zatrudnia 75 pracowników, w tym 32 inżynierów, i obsługuje około 70 klientów. Firma planuje w tym roku podpisać umowy z dystrybutorami i zadebiutować na rynku europejskim. 

Nadciąga era kontenerów

Konteneryzacja to obok chmury obliczeniowej jeden z najczęściej poruszanych tematów podczas ubiegłorocznych konferencji technologicznych. Chyba najbardziej spektakularnym przykładem był VMworld 2019, podczas którego więcej mówiono o kontenerach niż o wirtualizacji. Konteneryzacja od pewnego czasu jest nierozerwalnie związana z platformą Kubernetes, która służy do zarządzania, automatyzacji i skalowania aplikacji kontenerowych. Nie ulega wątpliwości, że nadejście kontenerów znacznie ułatwia życie programistów, ale działy IT mają tak naprawdę twardy orzech do zgryzienia. 

– O ile Kubernetes świetnie radzi sobie z zarządzeniem cyklem życia aplikacji, o tyle nie rozwiązuje innych zagadnień istotnych z punktu widzenia administratora sieci. Do tych najbardziej palących problemów należą kwestie związane z backupem, disaster recovery, a także dostępnością, migracją i bezpieczeństwem danych – tłumaczy Murli Thirumale, założyciel i CEO Portworxa.

Oprogramowanie PX Portworx uzupełnia powstałą lukę, łącząc serwery, macierze SAN, NAS, a także instancje chmurowe. System realizuje wiele usług związanych z obsługą danych dla kontenerów zarządzanych przez Kubernetes, takich jak klonowanie, tworzenie migawek, replikacja, migracja czy też szyfrowanie danych.

– PX Portworx odgrywa rolę nakładki na platformę Kubernetes, za pomocą której można zarządzać wszystkimi usługami dostarczanymi przez oprogramowanie. To powoduje, że nie jest potrzebny administrator pamięci masowej – zaznacza Gou Rao, współzałożyciel i CTO Portworxa.

Szefowie oraz inwestorzy kalifornijskiej firmy wychodzą z założenia, że już wkrótce Kubernetes stanie się uniwersalnym panelem do sterowania centrami danych i środowiska chmury publicznej. Murli Thirumale zaznaczył, że nawet VMware musiał uznać dominację Kubernetesa, czego najlepszą egzemplifikacją jest prezentowany podczas VMworld 2019 Project Pacific. 

Portworx, który działa od 2014 r., ma 140 klientów. Lista referencyjna jest wyjątkowo interesująca, bowiem znajdują się na niej tak znane firmy, jak Carrefour, Comcast, DreamWorks, Ford, General Electric czy Lufthansa. Średnia wartość transakcji wynosi około 100 tys. dol., a przeciętny cykl sprzedaży oprogramowania trwa cztery miesiące. Krzysztof Wyszyński, architekt IT z Netology, przyznaje, że rzadko spotyka się podczas realizacji projektów z kontenerami. 

– W Polsce jest to głęboka nisza. Firma, która wykorzystuje kontenery, musi zatrudniać developerów, którzy rozwijają oprogramowanie w architekturze mikrousług. W rezultacie lista potencjalnych klientów ogranicza się do dużych firm. Poza tym w idealnym świecie IT kontenery powinny być bezstanowe, gdyż w tym przypadku ochrona danych staje się zbyteczna. Oczywiście zdarzają się kontenery zawierające bazy danych i w tej sytuacji należy je zabezpieczyć – wyjaśnia Krzysztof Wyszyński. 

Ze zdecydowanie większym entuzjazmem do tematów związanych z konteneryzacją podchodzą inwestorzy z Doliny Krzemowej, którzy wyłożyli na rozwój Portworxa 55 mln dol.

Artykuł Małe start-upy i wielkie zbiory danych pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/male-start-upy-i-wielkie-zbiory-danych/feed/ 0
Cyfryzacja z pudełka podbije biznes? https://crn.sarota.dev/aktualnosci/cyfryzacja-z-pudelka-podbije-biznes/ https://crn.sarota.dev/aktualnosci/cyfryzacja-z-pudelka-podbije-biznes/#respond Wed, 29 May 2019 20:47:00 +0000 https://crn.pl/default/cyfryzacja-z-pudelka-podbije-biznes/ Tzw. kontenery i oprogramowanie do ich zarządzania mogą zmienić biznesowe IT tak jak kiedyś cloud computing – twierdzi VMware.

Artykuł Cyfryzacja z pudełka podbije biznes? pochodzi z serwisu CRN.

]]>
Według 451 Research rynek oprogramowania do tworzenia i zarządzania kontenerami (kubernetes) będzie za 4 lata warty ponad 5,5 mld dol., rosnąc średnio rocznie o 28 proc. Podobne dane podaje Markets&Markets. Raport Turbonomic 2019 State of Multicloud informuje, że 26 proc. firmowych środowisk IT bazuje na konteneryzacji. W ciągu 2 lat liczba ta ma wzrosnąć dwukrotnie.

Inwestycje są spodziewane przede wszystkim w branży motoryzacyjnej, finansowej, handlowej, telekomunikacyjnej, a także w logistyce i w instytucjach publicznych. Mają być istotnym elementem transformacji cyfrowej przedsiębiorstw. Przewiduje się, że kubernetes niebawem wykroczy poza kontenery i będzie stosowane jako wsparcie innych elementów środowiska IT. Już 1/3 biznesowych aplikacji stawianych w tych środowiskach ma znaczenie krytyczne dla biznesu.

Zainteresowanie oprogramowaniem do zarządzania kontenerami związane jest m.in. popytem na chmurę. Wiele firm obawia się, że wybór jednego dostawcy uniemożliwi korzystanie z możliwości innego. Kontenery pozwalają na uniknięcie tego problemu. Oferują jednoczesne zarządzanie tysiącami jednostek w różnych środowiskach tradycyjnych, w chmurze hybrydowej i publicznej.

Wdrożenie kontenerów skraca czas tworzenia aplikacji nawet o 30 proc., a lepsze wykorzystanie możliwości sprzętu przyczynia się do ograniczenia kosztów utrzymania infrastruktury nawet o 15 proc. – podaje VMware.

– Organizacje każdego szczebla muszą inwestować w technologie, które pozwolą im przygotować się na dalsze, nieuniknione zmiany. Kubernetes może w tym pomóc, ale trzeba oszacować, jak bardzo ma ingerować w ten proces. Jednym firmom wystarczy prosta wersja, inne będą potrzebować zbudowanego od podstaw środowiska. Niektóre organizacje mogą z kolei zainwestować w oprogramowanie kubernetes udostępniane jako usługa w chmurze – twierdzi Joe Baguley z VMware.

W badaniu opublikowanym w ub.r. w serwisie NewStack jako największe wyzwania związane z konteneryzacją wymieniono bezpieczeństwo, sieci i pamięci masowe, czyli kwestie związane z infrastrukturą. Wskazały je zwłaszcza największe organizacje.

 

Artykuł Cyfryzacja z pudełka podbije biznes? pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/aktualnosci/cyfryzacja-z-pudelka-podbije-biznes/feed/ 0
Sysdig zagląda do kontenera https://crn.sarota.dev/artykuly/sysdig-zaglada-do-kontenera/ https://crn.sarota.dev/artykuly/sysdig-zaglada-do-kontenera/#respond Tue, 04 Dec 2018 07:57:00 +0000 https://crn.pl/default/sysdig-zaglada-do-kontenera/ Mikrousługi i kontenery wchodzą do głównego nurtu IT. Wraz z nimi na rynku debiutują nowe rozwiązania przeznaczonego do ochrony i monitoringu do nowej architektury.

Artykuł Sysdig zagląda do kontenera pochodzi z serwisu CRN.

]]>
Znaczna część oprogramowania biznesowego posiada architekturę monolityczną.  Jednak w ostatnim czasie zauważalny jest  zwrot w kierunku software’u opartego o mikrousługi i kontenery.  Nowa metoda przyspiesza proces tworzenia aplikacji, a także ułatwia aktualizację i rozbudowę. Niemniej innowacyjna architektura niesie ze sobą wyzwanie związane z monitoringiem czy ochroną aplikacji.  Systemy starszej generacji nie są  przygotowane do tego zadania. Otwiera się szansa przed nowymi graczami. Jednym z przedstawicieli nowej fali jest amerykańska firma Sysdig, mająca swoją siedzibę w San Francisco.  Startup opracował jednolitą platformę przeznaczoną do monitorowania i ochrona aplikacji budowanych w oparciu o mikrousługi. 

– W obecnych czasach każde przedsiębiorstwo jest związane z softwarem.  Wpływ na taki stan rzeczy mają nowego trendy, takie jak internet rzeczy, sztuczna inteligencja czy autonomiczne samochody. Firmy, aby lepiej spełniać potrzeby biznesu, migrują z architektury monolitycznej do mikroserwisów. Wraz z rozwojem aplikacji natywnych w chmurze rośnie zapotrzebowanie na narzędzia do monitoringu – tłumaczy Suresh Vasudevan, CEO Sysdig. 

 

Vasudevan kieruje startupem dopiero od kwietnia 2018 roku.  Nie jest to anonimowa postacią w Dolinie Krzemowej. W latach 2011-2017 zasiadał na fotelu prezesa Nimble Storage.  Jednym z wyróżników macierzy Nimble Storage, obecnie należących do HPE,  jest analityczne narzędzie InfoSight, monitorujące pracę systemów, a także przewidujące wystąpienie potencjalnych problemów.

– Moje doświadczenia zdobyte w poprzedniej firmie z pewnością przydadzą się w Sysdig.  Tym bardziej, że nasza platforma cały czas ewoluuje, wykorzystując ogromną ilość analiz i technologię uczenia maszynowego.- mówi Suresh Vasudevan, CEO Sysdig.

 

Platforma składa się z czterech elementów. Sysdig Monitor odpowiada za analizę wszystkich elementów środowiska opartych na kontenerach i mikrousługach.  System gromadzi, analizuje i przedstawia w czasie rzeczywistym wskaźniki wydajności. Z kolei Sysdig Secure skanuje infrastrukturę w celu identyfikacji luk w zabezpieczeniach i blokuje zagrożenia.  Sysdig jest autorem m.in  projektu open source Falco  Narzędzie wykrywa nietypowe zachowanie zachodzące w aplikacjach, hoście, kontenerze lub w sieci. Po ujawnieniu anomalii  istnieje możliwość skorzystania z Sydig Inspect w celu dokładnego zbadania systemu, sieci i danych aplikacji.  

Ciekawą postacią jest Loris Degioanni, CEO i założyciel startupu. Jego dotychczasowa  kariera zawodowa  jest związana z tworzeniem rozwiązań do monitoringu sieci. Jego pierwsze dziecko – analizator sieciowy Wireshark, bardzo szybko stało się jednym z ulubionych narzędzi administratorów sieci i … hakerów.  Potem wystartował z kolejnym projektem  CACE Technologies. Startup opracował oprogramowanie do monitorowania sieci open source, a następnie został wchłonięty przez Riverbed.  Sysdig powstał w 2013 roku. W ciągu pięciu lata startup pozyskał do venture capitals 121 milionów dolarów.

 

Artykuł Sysdig zagląda do kontenera pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/sysdig-zaglada-do-kontenera/feed/ 0
Serwery i systemy operacyjne, czyli stare po nowemu https://crn.sarota.dev/artykuly/serwery-i-systemy-operacyjne-czyli-stare-po-nowemu/ https://crn.sarota.dev/artykuly/serwery-i-systemy-operacyjne-czyli-stare-po-nowemu/#respond Mon, 03 Dec 2018 07:11:00 +0000 https://crn.pl/default/serwery-i-systemy-operacyjne-czyli-stare-po-nowemu/ Gdy produkty oferowane na rynku coraz mniej różnią się pod względem technicznym, na plan pierwszy wychodzą koszty utrzymania rozwiązań i usługi posprzedażowe.

Artykuł Serwery i systemy operacyjne, czyli stare po nowemu pochodzi z serwisu CRN.

]]>
W serwerach od lat obowiązywał podział na modele wieżowe, rackowe oraz kasetowe (blade). Nie znaczy to wcale, że będzie tak już zawsze. Kariera serwerów typu blade, które przez pewien czas były bardzo popularne, wydaje się dobiegać końca. Producenci albo całkowicie rezygnują z ich wytwarzania, albo ograniczają ich wybór w ofercie.

Dzieje się tak, ponieważ przede wszystkim nastąpił duży wzrost prędkości transferu w sieciach SAN i Ethernet. Przyspieszeniu nie sprostały architektury, np. midplane, czyli układów łączących serwery i przełączniki w obudowach – twierdzi Sebastian Perczyński, Presales Consultant z Fujitsu.

Pojawiła się zatem potrzeba zastosowania nowych obudów, a to kłóci się z ideą konstrukcji kasetowej, która miała zapewniać skalowalność wyłącznie przez wymianę modułów serwerowych. Na spadek zainteresowania serwerami blade wpływa też przejście od klasycznej wirtualizacji do rozwiązań chmurowych i definiowanych programowo (Software Defined). W takim przypadku konieczne jest dostosowanie sprzętu do najnowszych technik (Ethernetu 100 Gb/s, FC 32/64 Gb/s, dysków NVMe). A tę cechę mają klasyczne serwery rackowe i zyskujące coraz większą popularność platformy dla środowisk chmurowych.

Serwery rackowe umożliwiają realizowanie koncepcji SDI (Software Defined Infrastructure) i HCI (HyperConverged Infrastructure), spełniających potrzebę upraszczania infrastruktury serwerowo-pamięciowej. Dzięki nowym trendom nie trzeba się długo zastanawiać, jakie wykorzystać serwery i macierze, w jakich grupach i konfiguracjach, z jakimi dyskami, bo wiele potrzebnych funkcji zapewnia oprogramowanie urządzeń. Kod stworzony przez programistów realizuje dużą część zadań dotąd ręcznie wykonywanych przez administratorów. Nie trzeba się martwić o zwymiarowanie systemu pod kątem potrzeb firmy, bo klient dostaje gotowe rozwiązanie, przetestowane i certyfikowane. W dodatku dające się łatwo skalować przez dokładanie kolejnych takich samych węzłów.

Klienci coraz częściej poszukują rozwiązań Software Defined Ready, takich jak serwery rackowe. Urządzenia te zapewniają dostosowywanie posiadanych zasobów do dynamicznie zmieniającego się zapotrzebowania ze strony obsługiwanego oprogramowania. Wyróżnia je możliwość dużej koncentracji mocy obliczeniowej i skalowalność.

Dlatego ten typ serwerów cieszy się dziś ogromnym zainteresowaniem ze strony klientów – twierdzi Rafał Szczypiorski, Business Development Manager, Global Compute and Networking w Dell EMC.

Wśród nowych trendów technicznych w świecie serwerów za istotną zmianę można uznać coraz częstsze używanie dysków NVMe, dużo szybszych od standardowych nośników. Są znacząco droższe, ale uzyskiwany wzrost wydajności w przypadku środowisk HPC (High Performance Computing), rozwiązań hiperkonwergentnych itp. uzasadnia poniesione koszty.

To największa zmiana w serwerach w ostatnim czasie. Na rynku pojawiają się wciąż nowe platformy umożliwiające montowanie szybkich dysków NVMe – podkreśla Krzysztof Szablowski, Engineers Team Leader w S4E.

 

Jak się wyróżnić, kiedy nie ma czym?

Ponieważ serwery bazują na standardowych rozwiązaniach (wszyscy korzystają z komponentów Intela, rzadziej AMD), ich producentom trudno się wyróżnić. Produkty Intela niezmiennie są wybierane najczęściej, bo klienci, którzy rozbudowują firmowe środowiska, tworząc chociażby klastry, np. z wykorzystaniem wirtualizatorów VMware, chcą zadbać o homogeniczność infrastruktury. Dokupują więc sprzęt podobny do tego, jaki już posiadają, który w zdecydowanej większości jest wyposażony w procesory rynkowego potentata.

Jeśli serwery mają w środku to samo, producenci nie mają dużego pola do popisu. Mogą się wyróżnić bardziej funkcjonalnym firmware'em. Próbują też grać ceną, ale w sytuacji stosowania komponentów od tego samego dostawcy również tutaj mają małe pole manewru – zauważa Krzysztof Szablowski.

Dlatego serwery to nie jest łatwy rynek. W dodatku producenci przyzwyczaili klientów do częstych zniżek. W efekcie ceny katalogowe urządzeń różnych dostawców niewiele się obecnie różnią. A niskie ceny oznaczają spadek zainteresowania dostawców mniejszymi projektami, na których trudniej zarobić.

Z drugiej strony kłopot jest też z projektami największymi, bo wielcy dostawcy usług w chmurze publicznej sami składają sobie serwery z zamówionych komponentów. Budują sprzęt, który zapewni im największą elastyczność i najprostszą administrację rozwiązaniami. W przypadku tysięcy serwerów będzie to miało przełożenie na znacząco mniejszy koszt zakupu i eksploatacji. Na szczęście sprawdza się to tylko u gigantów, bo nawet właściciele centrów danych wybierają oferty tradycyjnych dostawców serwerów.

Kupują od producenta, bo potrzebują supportu. Nie dysponują takimi zasobami ludzkimi, by mogli we własnym zakresie zająć się obsługą tworzonej samodzielnie infrastruktury – wyjaśnia Krzysztof Szablowski.

To dowód, że na serwer trzeba patrzeć całościowo, zwracać uwagę nie tylko na sprzęt, ale także na dołączone do niego usługi wsparcia. Nie można więc zapominać o serwisie. Rafał Szczypiorski przekonuje, że dobra obsługa posprzedażna przynosi ogromne korzyści i może zaważyć na wyborze oferty przez klienta. Dlatego pojawiają się nowe metody świadczenia pomocy technicznej wychodzące naprzeciw oczekiwaniom klientów.

Idealnym przykładem jest możliwość nadania odpowiedniego priorytetu zgłoszenia przez samego klienta. To nie serwis decyduje jak ważne jest zgłoszenie, a klient  – mówi przedstawiciel Dell EMC.

Czym różni się wirtualizacja od konteneryzacji?

Gdy rosła moc obliczeniowa i pojemność serwerów, tradycyjnie uruchamiane aplikacje przestały wykorzystywać wszystkie dostępne zasoby. Dlatego powstała koncepcja konsolidowania wielu systemów i aplikacji w ramach jednego fizycznego serwera za pomocą wirtualizacji, to znaczy użycia oprogramowania do emulowania wielu systemów sprzętowych. Hypervisor, czyli wirtualizator, tworzy warstwę między sprzętem a maszynami wirtualnymi, których zakładanie i uruchamianie umożliwia. Mogą one być wyposażone w różne systemy operacyjne, a mimo wszystko działać na tym samym serwerze fizycznym – każda ma własne pliki binarne, biblioteki i aplikacje, które obsługuje. Dlatego pojedyncza maszyna wirtualna jest „ciężka”, bywa, że ma wiele gigabajtów. Wirtualizacja systemu operacyjnego zyskała na popularności w ostatniej dekadzie, umożliwiając przewidywalne działanie maszyn wirtualnych i łatwe ich przenoszenie z jednego środowiska serwerowego do innego.
Wykorzystywana w ostatnim czasie coraz powszechniej konteneryzacja także gwarantuje uruchamianie wielu izolowanych systemów, ale w ramach tego samego systemu operacyjnego hosta. Działając na serwerze fizycznym, każdy kontener współużytkuje jądro systemu operacyjnego, takiego jak Linux czy Windows, a zazwyczaj także pliki binarne i biblioteki. Współużytkowane komponenty przeznaczone są tylko do odczytu. W rezultacie kontenery są wyjątkowo „lekkie”. Ich rozmiar może być liczony w megabajtach, a nie gigabajtach, natomiast ich uruchomienie zajmuje zaledwie kilka sekund, a nie minut, jak w przypadku maszyn wirtualnych. Konteneryzacja odciąża administratorów IT i to nawet bardziej niż wirtualizacja. Skoro bowiem kontenery używają tego samego systemu operacyjnego, wsparcia (m.in. dostarczania aktualizacji, poprawek) wymaga tylko jeden system operacyjny.

 

Nie bez znaczenia dla klientów podejmujących decyzje biznesowe jest też dostępność i jakość oprogramowania zarządzającego. Nie wystarcza już takie, które zapewnia zarządzanie jedynie serwerami. Klienci potrzebują narzędzi uniwersalnych, dzięki którym jednocześnie mogą objąć zarządzaniem również środowisko pamięci masowej oraz sieciowe.

Idealnym rozwiązaniem wydaje się być możliwość definiowania profili dla określonych grup sprzętowych, zgodnie z którymi każde nowe urządzenie po podłączeniu do sieci zostanie automatycznie skonfigurowane – twierdzi Sebastian Perczyński.

W obliczu mającego nastąpić ogromnego wzrostu cen energii elektrycznej wyróżnikiem oferty może być energooszczędność serwerów. Wyższa cena prądu bardzo wpłynie na koszt utrzymania serwerów, a w efekcie docelowej usługi przez nie realizowanej. Dlatego klienci będą szukać konstrukcji serwerowych, które zapewnią im niższe rachunki za energię.

Powinno wzrosnąć zainteresowanie ekonomicznymi technikami chłodzenia, zapewnianymi przez producentów serwerów jak również oferowanymi przez niezależnych dostawców – twierdzi Krzysztof Szablowski.

Serwerowe systemy operacyjne

System operacyjny zawsze pełnił taką samą rolę – zapewniał aplikacjom dostęp do zasobów sprzętowych. Ostatnie lata nie przyniosły w tej kwestii żadnych zmian.

Bezpieczeństwo, stabilność, wydajność i skalowalność – oto, czego oczekuje się od nowoczesnego systemu operacyjnego. Ma dobrze pracować w maszynie fizycznej, wirtualnej, instancji chmurowej lub wykorzystywany pasywnie jako obraz kontenera  – tłumaczy Wojciech Furmankiewicz, Regional Manager, CEE w Red Hat.

Obecne systemy operacyjne ewoluują, zmieniają postać z monolitycznej na modułową. Projektując kolejne wersje, twórcy zmierzają do tego, żeby użytkownicy nie musieli instalować całego oprogramowania, tylko wybierać to, co w danym momencie jest im potrzebne.

Bardzo istotne stają się funkcje ułatwiające utrzymanie systemu. Ponieważ podczas wprowadzania zmian i aktualizacji nie da się uniknąć błędów, przydatna jest możliwość szybkiego powrotu do poprzedniego stanu, w którym problem nie występował. Pomocna będzie także opcja instalowania poprawek, przede wszystkim związanych z lukami w zabezpieczeniach i stabilnością systemu, bez konieczności wyłączania go.

Gdy w przedsiębiorstwie trzeba czekać nawet miesiąc na okno serwisowe i przez ten czas systemu nie można zaktualizować, taka funkcja bardzo się przydaje – twierdzi Tomasz Surmacz, dyrektor handlowy w SUSE Polska.

Ma to znaczenie zwłaszcza w przypadku systemów udostępnianych na zewnątrz, w których poprawki związane z podniesieniem poziomu bezpieczeństwa muszą być wprowadzane natychmiast po ich wydaniu.

Ważnym zadaniem serwerowego systemu operacyjnego jest również łatwe budowania klastrów serwerów – zarówno w trybie active-active, jak również active-passive. Klastry można uruchamiać w jednej sieci lokalnej, ale też w miejscach oddalonych o wiele kilometrów, gdzie serwery są wykorzystywane zdalnie, budując w ten sposób środowisko HA (High Availability).

 

Zdaniem integratora

Dzianis Kaszko, Sales & Marketing Director, Comtegra

To, które serwery są w danym momencie tańsze, wynika z polityki dostawców, ich programów cenowych i lojalnościowych. Zdarza się, że serwer o bardzo podobnych parametrach kosztuje mniej u producenta A, ale w konfiguracji z innymi komponentami tańszy jest u producenta B. Bardzo często ważnym kryterium wyboru (zwłaszcza dla przedsiębiorstw z dużymi środowiskami IT) są koszty zarządzania. Jeśli klient ma kilkadziesiąt serwerów jednego producenta i administruje nimi za pomocą stworzonego dla nich rozwiązania, dokupienie kolejnych maszyn innej marki rodzi problemy. Musiałby zarządzać nimi, używając dodatkowych narzędzi. Bardziej ekonomiczny jest zatem zakup droższych o kilka procent urządzeń tego samego dostawcy i zachowanie spójnego środowiska. Nie mniej ważna jest jakość serwisu. Generalnie w ostatnim czasie można było zaobserwować jej spadek, więc vendorzy, którzy nie obniżyli poziomu usług, zaczynają wygrywać. Klient docenia fakt, że jego problemy rozwiązywane są w Polsce, nie musi czekać dwa tygodnie na jakiś komponent itp. Ma to dla niego ogromne znaczenie, zwłaszcza jeśli jego środowisko produkcyjne musi działać w trybie 24/7. Kolejną ważną rzeczą, którą może wyróżnić się producent, jest krótszy termin dostawy.

 

Podobnie jak w przypadku innych komponentów, które składają się na środowisko IT, istotnym aspektem serwerowego systemu operacyjnego jest koszt utrzymania. Jego znaczenie ciągle rośnie, bo na rynku jest coraz trudniej o fachowy personel informatyczny, a pracy w dziale IT przybywa. W związku z tym coraz potrzebniejsze są narzędzia wspierające administratorów w codziennych obowiązkach, a producenci systemów operacyjnych dołączają do nich rozwiązania ułatwiające zarządzanie infrastrukturą centrum danych, nie tylko uruchomioną za pomocą ich oprogramowania. Dzięki tym narzędziom można zoptymalizować administrowanie całym środowiskiem oraz zwiększyć jego ochronę, np. uzyskując kontrolę nad usuwaniem luk w zabezpieczeniach.

Za pomocą oprogramowania w centrum danych realizowana jest obecnie – wspomniana już przy okazji serwerów – idea Software Defined Infrastructure. Buduje się infrastrukturę, używając standardowych elementów sprzętowych, czyli serwerów z dyskami, a całą „inteligencję” wnosi oprogramowanie. Na bazie systemu operacyjnego dostarczane są m.in. usługi zwirtualizowanej sieci i pamięci masowej dla chmury prywatnej, narzędzia do zarządzania infrastrukturą definiowaną programowo oraz coraz ważniejsze usługi kontenerowe. Dzięki tym ostatnim można elastycznie korzystać z oprogramowania – bardzo szybko i niezależnie od infrastruktury instalować i uruchamiać aplikacje oraz wymuszać ich zamknięcie, zgodnie z aktualnymi potrzebami.

Wirtualizacja kontra konteneryzacja

Rośnie trend wykorzystywania kontenerów wszędzie, gdzie tylko to możliwe. To efekt m.in. ich lekkości, szybkości uruchamiania, bardziej optymalnego użycia zasobów oraz łatwości budowania nowych aplikacji w atrakcyjnej architekturze mikrousług. Stosowanie tych rozwiązań wpływa na obniżenie kosztów utrzymania infrastruktury i poprawę zwinności biznesu. Dlaczego zatem jeszcze nie wszystko jest jeszcze skonteneryzowane?

Jak wyjaśnia Wojciech Furmankiewicz, konteneryzacja polega na współużytkowaniu jądra systemu węzła przez wiele aplikacji pracujących w odizolowanych procesach. Dlatego, po pierwsze, wersja jądra jest taka sama dla wszystkich, a po drugie, awaria jądra oddziałuje na setki gęsto upakowanych wykorzystujących je kontenerów. W przypadku uruchamiania nowoczesnych aplikacji, które są zaprojektowane do pracy w takim środowisku, ma to niewielkie znaczenie.

Jeśli jednak firmowe systemy są bardziej tradycyjne, wymagają specyficznej wersji jądra i źle znoszą awarię systemu, lepsza będzie w ich przypadku wirtualizacja – wyjaśnia przedstawiciel Red Hata.

Jej cechą nadrzędną jest dowolność wersji i rodzaju systemu w przypadku każdej pracującej aplikacji. W efekcie awaria jednej maszyny wirtualnej nie ma wpływu na inne. Na jednym hoście mogą pracować zarówno systemy Linux, jak i Windows.

Dlatego przedsiębiorstwa są zmuszone utrzymywać te „ciężkie” obiekty i opiekować się ich złożonym cyklem życia. To kompromis wynikający z bilansu zysków i start – twierdzi Wojciech Furmankiewicz.

W efekcie firmy są skazane na wiele różnych platform, środowiska hybrydowe, wielochmurowe oraz takie, które ciągle wymagają przeznaczonych dla nich maszyn fizycznych. W tak złożonej infrastrukturze niezbędne są sprawne systemy zarządzania i automatyzacji procesów, które ułatwią utrzymywanie środowisk, zarówno kontenerowych, jak i wirtualnych.

Zdaniem specjalistów

Wojciech Furmankiewicz
Regional Manager CEE, Red Hat

Już dawno minęły czasy, kiedy system operacyjny był instalowany ręcznie w pełnej postaci. Obecnie liczy się maksymalna unifikacja i automatyzacja procesu powoływania nowych środowisk. System operacyjny jest jednym z elementów definiowanych jako Infrastructure as a Code. Powinien zapewniać zautomatyzowaną konfigurację urządzeń sieciowych, systemów pamięci masowej oraz ich integrację z zewnętrznymi elementami budowanej infrastruktury.

Tomasz Pietrzak
Infrastructure Solutions Group Manager, Dell EMC

Polski rynek serwerów już od kilku lat rośnie bardzo dynamicznie, a nowych klientów stale przybywa. Odbywa się to wbrew wcześniejszym przewidywaniom, które głosiły spadek lub w najlepszym wypadku stagnację sprzedaży tych produktów, spowodowane wzrostem popularności chmury publicznej. Co istotne, dotyczy to każdego segmentu odbiorców tych urządzeń – nie tylko największych przedsiębiorstw, ale także średnich i małych firm, które również dostrzegają nowe możliwości wykorzystania serwerów. Tym bardziej, że ceny rozwiązań serwerowych znacznie się obniżyły a do tego są one bardzo łatwo skalowalne.

 

 

Artykuł Serwery i systemy operacyjne, czyli stare po nowemu pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/serwery-i-systemy-operacyjne-czyli-stare-po-nowemu/feed/ 0