Artykuł Opengear: pierwsze na rynku serwery konsoli z DevOps do zdalnego zarządzania i automatyzacji pochodzi z serwisu CRN.
]]>Ze względu na fakt, że sposób ten ułatwia wyłącznie prowadzenie ręcznych prac przez administratora, Opengear – lider rynku rozwiązań typu OOB – postanowił rozszerzyć ich funkcjonalność, w wyniku czego powstały pierwsze w branży serwery konsoli zapewniające zdalne zarządzanie sieciami w modelu NetOps. Urządzenia z rodziny OM (Operations Manager) wyposażone są w procesory x86, co wykorzystano do zapewnienia obsługi tradycyjnych kontenerów Docker i środowiska Python. Oprócz standardowych funkcji Smart OOB, sprzęt ten zapewnia automatyczne wykrywanie portów i obsługę sieci VLAN. Tak zbudowana infrastruktura zarządzana jest z wykorzystaniem oprogramowania Lighthouse.
W ofercie Opengear znajdują się dwie serie serwerów konsoli NetOps. Niewielkie urządzenia z rodziny OM1200 zostały zaprojektowane specjalnie z myślą o bezpiecznych wdrożeniach na brzegu sieci. Składa się na nią 8 modeli wyposażonych w od 4 do 8 portów szeregowych oraz od 4 do 8 portów Ethernet, 2 porty USB 2.0 do zarządzania konsolą urządzeń i 2 porty USB 3.0 do przechowywania danych. Zainstalowany jest także moduł dostępu komórkowego LTE-A Pro oraz 16 GB wewnętrznej pamięci flash do przechowywania plików konfiguracyjnych i oprogramowania.
Urządzenia z rodziny OM2200 przeznaczone są do wdrażania w centrach danych i lokalizacjach o rozbudowanej infrastrukturze sieciowej. Dostępne są konfiguracje z 16, 32 i 48 portami konsoli oraz opcjonalnym modułem komórkowym LTE-A Pro. Są wyposażone w 8 portów USB 2.0 do zarządzania konsolą urządzeń i 2 porty USB 3.0 do przechowywania danych. Mają też 64 GB wewnętrznej pamięci flash.
Latarnia dla sieci
Oprogramowanie Lighthouse uruchamiane jest na wdrożonych lokalnie serwerach konsoli, dzięki czemu zapewnia bezpieczny zdalny dostęp do wszystkich urządzeń sieciowych w infrastrukturze i umożliwia zarządzanie nimi – niezależnie od sposobu ich podłączenia lub sposobu interakcji użytkownika z systemem.
Lighthouse może uruchamiać kontenery Docker bezpośrednio na serwerach konsoli NetOps i zarządzać nimi w każdej zdalnej lokalizacji, co zapewnia dostęp do dodatkowych funkcji i ułatwia automatyzację operacji w sieci. Narzędzie to bardzo dobrze sprawdza się także w przedsiębiorstwach o rozproszonej strukturze, w których funkcjonuje zarówno w centrum danych, jak i oddziałach – w takiej sytuacji gwarantuje dostęp do infrastruktury sieciowej, niezależny od podstawowych metod za pośrednictwem sieci produkcyjnej.
Pełne bezpieczeństwo połączeń zapewnione jest dzięki uwierzytelnianiu z wykorzystaniem protokołów TACACS, Radius oraz LDAP. Istnieje też możliwość ścisłej kontroli uprawnień dla każdej operacji, od logowania po rejestrowanie zdarzeń. Oprogramowanie to dostępne jest w modelu subskrypcyjnym, dzięki czemu łatwo jest dodawać węzły i rozliczać się za nie. Lighthouse może być hostowany na wybranym hiperwizorze lokalnie albo na platformie Azure lub AWS.
Dla dużych przedsiębiorstw dostępna jest także wersja Enterprise Edition, zapewniająca funkcję load balancingu oraz redundancji połączeń w przypadku wystąpienia problemu z łącznością w jednej lub kilku lokalizacjach. Jest także wyposażona w mechanizm automatycznej konfiguracji urządzeń podłączanych do sieci w odległych lokalizacjach.
Urządzenia Opengear oraz oprogramowanie Lighthouse są dostępne w ofercie Stovaris, autoryzowanego dystrybutora tej marki w Polsce. Firma, wspólnie z producentem, zapewnia możliwość zorganizowania dostosowanej do potrzeb danego klienta prezentacji rozwiązań.
Kontakt dla partnerów: Przemysław Prochera, Business Development Manager, Stovaris, p.prochera@stovaris.pl
Artykuł Opengear: pierwsze na rynku serwery konsoli z DevOps do zdalnego zarządzania i automatyzacji pochodzi z serwisu CRN.
]]>Artykuł Ivanti: profesjonalne zarządzanie infrastrukturą IT pochodzi z serwisu CRN.
]]>Proces ujednolicania infrastruktury IT należy zacząć od inwentaryzacji zasobów klienta i analizy stanu posiadania. W tym zadaniu pomocne będzie narzędzie Ivanti Xtraction, które umożliwia automatyczną wizualizację zebranych informacji w przejrzysty sposób, co przyspiesza podejmowa-nie decyzji.
Następnie integratorzy mogą wspomóc klientów w tworzeniu procedur zapewniających sprawne zarządzanie systemami operacyjnymi, aplikacjami i profilami użytkowników w firmowych środowiskach IT.Do tego celu warto wykorzystać rozwiązanie typu UEM do zunifikowanego zarządzania urządzeniami końcowymi (komputerami stacjonarnymi, laptopami, tabletami i smartfonami), które łączy w sobie funkcjonalność kilku innych pakietów oprogramowania, w tym do zarządzania urządzeniami mobilnymi (Enterprise Mobility Management, EMM) oraz środowiskiem pracy użytkowników. Immanentną cechą tego typu narzędzi jest zastosowanie inteligentnego mechanizmu, który pozwala pracownikom firmy wykonywać wiele działań samodzielnie, m.in. zmieniać hasła, wnioskować o uprawnienia dostępu, jak też instalować oprogramowanie. Rozwiązania Ivanti świetnie nadają się do tego celu, ponieważ zapewniają zarządzanie praktycznie wszystkimi wykorzystywanymi w firmach systemami operacyjnymi, jak: Windows (zainstalowany w maszynach fizycznych i wirtualnych), macOS, Linux, Unix, iOS oraz Android. Współpracują także z urządzeniami Apple TV i Raspberry Pi.
Ivanti Unified Endpoint Manager umożliwia także łatwą migrację osobistych ustawień i plików użytkowników do systemu Windows 10 oraz automatyzuje proces jego aktualizacji, przy minimalnym obciążeniu sieci. Rozwiązanie to pomaga również w szybkim przygotowaniu dla użytkowników prekonfigurowanych urządzeń z systemem Windows, dzięki wykorzystaniu funkcji Windows Autopilot, bez konieczności korzystania z aplikacji Microsoft Intune oraz dużego zaangażowania pracowników działu IT.
Naturalnym rozszerzeniem pakietu Unified Endpoint Manager, wpływającym na poprawę bezpieczeństwa infrastruktury IT, jest narzędzie Ivanti Patch for Endpoint Manager. Dba ono o aktualizowanie systemów operacyjnych i aplikacji – w bardzo dużym stopniu automatyzuje proces wgrywania poprawek do posiadanego przez przedsiębiorstwo oprogramowania (zarówno na urządzeniach końcowych, jak i serwerach z systemami Windows, Linux, Unix, Solaris i macOS). Jego unikalną cechą jest to, że swoim działaniem obejmuje również komputery, które nie są na stałe podłączone do firmowej sieci, np. laptopy tych handlowców, którzy od czasu do czasu korzystają z korporacyjnych zasobów przez internet. Po nawiązaniu przez nich połączenia, na komputerze wymuszane jest dokonanie stosownych aktualizacji lub zmiana ustawień, zgodnie z nowymi regułami polityki bezpieczeństwa.
Około 60 proc. ataków na firmową infrastrukturę IT dotyczy urządzeń końcowych, 40 proc. zagrożonych systemów znajduje się zaś w serwerowniach i centrach danych. Ich właściwa ochrona to wyjątkowo ważny obowiązek wszystkich działów bezpieczeństwa i administratorów. Brak możliwości skorzystania ze skutecznego narzędzia do łatania i brak odpowiednich reguł polityki bezpieczeństwa, oznacza dla firmy nieuchronną katastrofę. Dlatego Ivanti posiada w swojej ofercie narzędzie Patch for Linux, Unix, Mac, które ułatwia rozwiązanie tego problemu, zapewniając zgodność z regułami polityki bezpieczeństwa odnoszącymi się do łatania tych systemów operacyjnych dla pecetów i serwerów oraz przeznaczonych dla nich tysięcy aplikacji od setek dostawców. Oprogramowanie umożliwia szybkie wykrywanie luk w firmowym środowisku IT i automatycznie instaluje profesjonalnie przetestowane poprawki.
Aktualizacji systemów IT nie można sprowadzić do podejmowanych od czasu do czasu działań. Jest to nieustannie trwający proces, który musi być zaplanowany w inteligentny sposób, objęty harmonogramem, w ramach którego wykonywane będą konkretne czynności, aby z jednej strony zminimalizować ryzyko ataku, z drugiej zaś nie paraliżować pracy firmy. Dlatego warto podkreślić, że kryteria te zostały wzięte pod uwagę przez projektantów rozwiązania Patch for Linux, Unix, Mac. Dzięki temu nieustannie aktualizowane są w nim informacje o nowych poprawkach, automatycznie prowadzona jest ocena tego, czy powinny one zostać zainstalowane oraz na ile jest to pilne. Administratorzy zaś nadal mogą sprawować nadzór nad przebiegiem ich wdrożenia tak, żeby naprawa była wykonywana bez zakłócania pracy użytkowników i infrastruktury krytycznej.
Oprogramowanie Ivanti Patch może być zintegrowane z systemami bezpieczeństwa informacji i zarządzania zdarzeniami (SIEM). Kolejną ważną zaletą tego narzędzia jest ułatwienie zapewnienia zgodności z przepisami i wewnętrznymi regulacjami w przedsiębiorstwach, głównie tymi dotyczącymi bezpieczeństwa środowisk IT (także RODO). Ułatwia ono także wymianę informacji oraz współpracę między działami IT, DevOps oraz osobami odpowiedzialnymi za całościowe bezpieczeństwo w firmie – do dyspozycji wszystkich tych zespołów są informacje ze zintegrowanych raportów podsumowujących aktualnystan ochrony poszczególnych obszarów oraz zawierających ocenę potrzeby wdrożenia kolejnych aktualizacji.
Autoryzowanymi dystrybutorami oprogramowania Ivanti w Polsce są: Alstor SDS, Prianto i Veracomp.
Trzy pytania do…
Jak ewoluują oczekiwania biznesowych użytkowników rozwiązań do zarządzania infrastrukturą IT?
Od kilku lat mamy na tym rynku do czynienia z postępującymi zmianami. Przede wszystkim klientom przestała wystarczać funkcjonalność narzędzi do zarządzania urządzeniami końcowymi typu Endpoint Manager. W efekcie coraz bardziej interesują się systemami do ujednoliconego zarządzania infrastrukturą – Unified Endpoint Manager. Oczekują także ułatwień dla administratorów IT i działu bezpieczeństwa, przede wszystkim możliwości zarządzania z jednej konsoli urządzeniami wyposażonymi w różne systemy operacyjne – Windows, Linux, Unix, macOS, Android czy iOS. Im większy jest stopień rozproszenia infrastruktury i im bardziej złożona struktura organizacyjna firmy, tym większe korzyści odnosi klient z korzystania z profesjonalnych rozwiązań typu UEM. Jest to szczególnie istotne w obecnych czasach, kiedy nastąpił potężny wzrost znaczenia pracy wykonywanej zdalnie.
Jak zatem będzie postępował dalszy rozwój narzędzi do zarządzania środowiskiem IT?
Konieczne jest w pełni zintegrowane oraz zautomatyzowane podejście, które usprawnizarządzanie procesami w firmach oraz zwiększy ilość samoobsługowych działań ze strony użytkowników. To z kolei przełoży się na znaczną oszczędność czasu po stronie działu IT. Co ważne, Ivanti ma już w ofercie takie rozwiązania. Są to pakiety określane przez nas mianem „Unified IT”, zawierające funkcje dostępne dotychczas w oddzielnych narzędziach do zarządzania tożsamością użytkowników, urządzeniami końcowymi, usługami i innymi zasobami oraz ich bezpieczeństwem.
Które z tych obszarów są kluczowe?
Przede wszystkim zarządzanie zasobami, czyli IT Asset Management. Świadomość stanu posiadania sprzętu i oprogramowania daje wiedzę, czym należy zarządzać, co zabezpieczać, jakie są cykle życia obiektów poddawanych konfiguracji itd. Tu także zderzają się dwa światy – rzeczywisty, obecny w fizycznym środowisku, z formalnym, wynikającym z dokumentów zakupowych, umów, licencji, gwarancji i tym podobnych. Do tego warto jest zarekomendować oprogramowanie Ivanti UEM, które jest systemem dokonującym „skanowania” środowiska, by zasilić danymi narzędzie ITAM oraz pomóc w automatyzacji wielu procesów.
Dodatkowe informacje: Bogdan Lontkowski, dyrektor regionalny na Polskę, Czechy, Słowację i kraje bałtyckie, Ivanti, bogdan.lontkowski@ivanti.com
Artykuł Ivanti: profesjonalne zarządzanie infrastrukturą IT pochodzi z serwisu CRN.
]]>Artykuł Złota szóstka Deloitte’a pochodzi z serwisu CRN.
]]>AI: warunek przetrwania przedsiębiorstwa
Prawie połowa (44 proc.) przedstawicieli badanych przez Deloitte firm, które wdrożyły sztuczną inteligencję, za jeden z głównych benefitów wskazuje rozwój gamy produktów, 42 proc. zoptymalizowanie wewnętrznych operacji, a 35 proc. podejmowanie lepszych decyzji.
W 2020 roku ilość wygenerowanych danych będzie 50 razy większa niż w 2012. Ich analiza będzie możliwa tylko za pomocą rozwiązań opartych na sztucznej inteligencji. Eksperci Deloitte zauważają, że wykorzystanie sztucznej inteligencji jako podstawy działalności przestaje być jedynie motorem rozwoju przedsiębiorstwa, a staje się warunkiem jego przetrwania.
AI jest wdrażana nawet w najbardziej podstawowych operacjach i procesach biznesowych – od zwykłej automatyzacji, po zaawansowane uczenie maszynowe. Zdaniem ekspertów dziś jest już za późno, aby testować to rozwiązanie w poszczególnych obszarach czy czekać na to, co zrobi konkurencja. Firma, która chce trafić do rynkowej awangardy i być organizacją napędzaną przez sztuczną inteligencję, musi całkowicie zmienić koncepcję interakcji między człowiekiem a maszyną.
Zdaniem Pawła Zarudzkiego, Lider Robotics & Cognitive Automation w Deloitte, ważne, by zastanowić się nad wykorzystaniem sztucznej inteligencji oraz innych narzędzi kognitywnych w każdym istotnym procesie i aspekcie działalności firmy. Potrzebna jest rewolucja, ponieważ metoda małych kroków tu się nie sprawdzi – mówi .
Interakcja ludzi, maszyn i danych
Tylko w ciągu ubiegłego roku dwukrotnie wzrosła liczba użytkowników inteligentnych głośników z asystentami głosowymi w amerykańskich gospodarstwach domowych – z 21,5 proc. w 2017 r. do 41 proc. w 2018 r.
Sposób, w jaki człowiek komunikuje się z maszynami, ulega zmianie. Rozwija się obszar projektowania interfejsów głosowych. Dotyczy to nie tylko voicebotów czy chatbotów, ale także urządzeń z obszaru Internetu Rzeczy czy wirtualnej rzeczywistości. Inteligentne interfejsy będą zmieniać sposób w jaki wchodzimy w interakcje z maszynami, analizujemy dane oraz komunikujemy się ze sobą nawzajem. – Nowoczesne technologie przybliżają świat cyfrowy i pozwalają na coraz bardziej naturalną komunikację i konsumpcję treści oraz usług. Co więcej, w zakresie doświadczeń klientów nie ma podziału na B2C i B2B, więc pojawienie się nowych rozwiązań w przestrzeni konsumenckiej powoduje falę oczekiwań w zakresie sposobu pracy i korzystania z takich systemów w firmach.
Łączność piątej generacji
Aktualizacja sieci to priorytet na ten rok dla 44 proc. uczestników badania Tech Target, dotyczącego priorytetów IT.
Wzrost liczby danych i urządzeń podłączonych do sieci wymusza rozwój technik łączności. Ważne w nich staje się zwiększenie przepustowości i zasięgu sieci, a także zmniejszanie opóźnień i efektywniejsze wykorzystanie zasobów częstotliwości. Dzięki temu możliwy będzie rozwój nowych produktów i usług oraz usprawnienie obecnych modeli operacyjnych. Sieć 5G czy rozwiązania satelitarne LEO to wedłg ekspertów Deloitte zapowiedź olbrzymich usprawnień, a zarazem niezawodnej i szybkiej łączności. Piąta generacja technologii komórkowej oznacza między innymi integrację wielu rozwiązań technologicznych, które np. usprawnią łączenie w sieci ogromnej liczby czujników i inteligentnych urządzeń. Zdaniem Jakuba Wróbla, eksperta rynku telekomunikacyjnego w Deloitte, w nadchodzących miesiącach ponad 50 operatorów na świecie przynajmniej częściowo uruchomi usługi 5G.
Budowanie przewagi konkurencyjnej – potrzebna cyfrowa strategia
47 proc. klientów deklaruje, że zrezygnuje z kontaktów z brandem, jeśli oferuje on doświadczenia niedopasowane do ich potrzeb.
Nowoczesne firmy muszą budować swoją przewagę konkurencyjną na bliskiej relacji z konsumentem. To wymaga nowego podejścia do gromadzenia danych, podejmowania decyzji czy lepszego kontaktu z klientem. Ogrom technologii wymagany do angażowania i dostarczania klientom kompleksowej obsługi powinien mieć odzwierciedlenie w strategii cyfrowej. Istotne staje się stworzenie odpowiednich narzędzi, które pozwolą zbierać i analizować zachowania klientów, by dostarczyć im spójny i spersonalizowany produkt na masową skalę. Dlatego zadania dyrektorów IT i szefów marketingu zaczynają się przenikać.
Nie DevOps, ale DevSecOps
Tradycyjne podejście do zarządzania projektami IT już dawno przestało być efektywne
Organizacje stawiają na zwinność i łączenie zespołów wdrożeniowych, utrzymaniowych, a także … bezpieczeństwa (DevSecOps). Dzięki temu wykształca się nowoczesna kultura organizacyjna, która pozwala na budowanie nowych produktów w krótkim czasie i przy stałym wsparciu osób odpowiedzialnych za bezpieczeństwo. Według Marcina Ludwiszewskiego, lidera zespołu ds. cyberbezpieczeństwa & red team w Deloitte,DevSecOps to całkowite przekształcenie zarządzania cyberzagrożeniami i ryzykiem. Odejście od zapewniania jedynie zgodności z przepisami i to pod koniec cyklu opracowywania produktu, na rzecz ciągłej współpracy w całym procesie prac wdrożeniowych – mówi. DevSecOps nie zmienia narzędzi, a jedynie kulturę i myślenie o cyberbezpieczeństwie, sprawiając, że wszystkie zespoły na każdym etapie powstawania usługi czy produktu będą odpowiedzialne za zapewnienie ich bezpieczeństwa.
Serverless
Deloitte wskazuje, że chmura nie jest już postrzegana jedynie jako rozwiązanie dla infrastruktury IT, będące alternatywą dla własnego lub kolokowanego centrum danych.
Główni dostawcy usług Cloud wprowadzają coraz bardziej zaawansowane rozwiązania klasy serverless. Umożliwia to działom IT koncentrację na funkcjonalności bez tracenia czasu na powtarzalne i manualne czynności w zakresie zarządzania serwerami i infrastrukturą. Hasło serverless oznacza przede wszystkim usługi FaaS (Funcion as a Service), natomiast bardzo podobne benefity dla organizacji dostarczają rozwiązania PaaS (Platform as a Service). W tradycyjnym modelu IT tzw. stack technologiczny buduje się od dołu – sieć, hardware, system operacyjny, biblioteki i dopiero na końcu kod. W przypadku FaaS jest tylko kod, który jest uruchamiany bezpośrednio „w chmurze”. Podobnie w PaaS – możliwe jest po prostu uruchomienie bazy danych, która sama zwiększa swoją pojemność i przepustowość kiedy jest taka potrzeba (a nie wirtualnego serwera, na którym jest zainstalowane oprogramowanie bazodanowe). Wtym modelu dział IT przedsiębiorstwa nie musi zarządzać żadnymi serwerami – czyli nadzorować, tworzyć kopii zapasowych, instalować poprawek i aktualizacji (NoOps).
Technologia serverless jest obecnie w wieku niemowlęcym i przydaje się jedynie w wybranych obszarach. – Prognozujemy jednak że dostawcy chmury będą te usługi dynamicznie rozwijać zwiększając możliwy zakres aplikacji, firmy natomiast będą coraz chętniej eksperymentować – mówi Jakub Garszyński, Dyrektor, Lider usług Cloud w Deloitte.
Szczegółowe informacje w raporcie: „Trendy Technologiczne 2019”, który można pobrać pod tym adresem:
Artykuł Złota szóstka Deloitte’a pochodzi z serwisu CRN.
]]>Artykuł Jak usprawnić pracę nad systemami IT pochodzi z serwisu CRN.
]]>Ale tylko 22 proc. firm połączyło te zespoły – jak pokazuje badanie 2nd Watch przeprowadzone w USA – co wskazuje na trudność w wykorzystaniu potencjału DevOps w przedsiębiorstwach.
Dodatkowo 38 proc. przebadanych organizacji zarządza swoją infrastrukturą IT w sposób manualny bez jakiejkolwiek automatyzacji w tym obszarze.
W badaniu GitLab respondenci przyznali, że najwięcej opóźnień w produkcji oprogramowania w ich organizacjach zdarza się na etapie testów (52 proc.), planowania (47 proc.), wdrożenia produkcyjnego (31 proc.) oraz weryfikacji kodu (30 proc.). To wskaźniki, że proces automatyzacji nie jest pełny.
Przebadani programiści i menadżerowie IT mają tego świadomość i sami wskazują, że proces wytwarzania oprogramowania w ich firmach to bardziej metodyka Agile (69 proc. wskazań) niż DevOps (23 proc).
Według GitLab 39 proc. programistów ma dostęp do środowiska testowego, które umożliwia im sprawdzenie wprowadzanych zmian na systemie tożsamym z produkcyjnym. Ponad połowa – 56 proc. – ma także pełny wgląd w działania podejmowane przez inne zespoły pracujące nad stworzeniem i eksploatacją systemu IT.
„Dostęp do odpowiednich narzędzi oraz kultura organizacji nastawiona na współpracę i komunikację pomiędzy różnymi zespołami pracującymi nad tym samym systemem IT, ale w różnych jego cyklach życia, to fundamenty metodyki DevOps. Jednocześnie jednak nie są to elementy wystarczające, bo ważna jest także automatyzacja we wszystkich obszarach produkcji oprogramowania oraz ścisła współpraca zespołów zajmujących się developmentem i eksploatacją systemu IT. A z tym jest już znacznie gorzej” – mówi Artur Witek, wiceprezes firmy konsultingowej Grape Up.
Zapewnia przy tym, że liczba zapytań o usługi doradcze związane z DevOps rośnie znacząco z roku na rok.
Artykuł Jak usprawnić pracę nad systemami IT pochodzi z serwisu CRN.
]]>Artykuł Wyścig z danymi w tle: liczy się każda milisekunda pochodzi z serwisu CRN.
]]>Zmiany w świecie software’u wpływają na układ sił. Wprawdzie pierwszoplanowe role na rynku nadal odgrywają Microsoft z Oracle’em czy SAP-em, ale do walki włączają się młodzi, perspektywiczni gracze. Rywalizacja przedstawicieli „nowej fali” z weteranami zapowiada się nad wyraz ciekawie. Poza tym wraz z nadejściem DevOps powstaje zapotrzebowanie na zupełnie nowe narzędzia, o których kilka lat temu nikt nie słyszał.
Zmiany od ręki
Opracowanie finalnej wersji Windows 2000, zawierającej aż 30 mln linii kodu, zajęło programistom około pięciu lat. Obecnie nikt nie pozwoli sobie na tak długi czas przygotowania produktu – ze względu na tempo przemian zachodzących na rynku nowych technologii, a także presję wywieraną przez klientów. Oprogramowanie musi nadążać za szybko zmieniającymi się potrzebami użytkowników. Nie bez przyczyny do słownika programistów trafiły takie zwroty, jak Continuous Integration (ciągła integracja), Continuous Delivery (ciągłe dostarczanie) czy Continuous Deployment (ciągłe wdrażanie).
– Jednym z największych wyzwań stojących przed zespołami DevOps jest Continuous Delivery. Z naszych obserwacji wynika, że jedynie około 2 proc. przedsiębiorstw posiada odpowiednie narzędzia, które zapewniają płynną realizację tego procesu – mówi Steve Burton, wiceprezes ds. marketingu w Harness.
Na czym polega Continuous Delivery? Zespoły programistyczne tworzą software w krótkich cyklach produkcyjnych, co umożliwia szybsze budowanie, testowanie i publikację aplikacji. Jeszcze do niedawna na taki komfort mogli sobie pozwolić jedynie giganci: Amazon, Apple, Google, Facebook czy Netflix. Jednak założyciele startupu Harness chcą, aby z tego typu rozwiązań korzystały zarówno wielkie instytucje finansowe, jak i małe firmy, które dopiero stawiają pierwsze kroki na rynku. W tym celu stworzyli platformę Continuous Delivery as a Service.
– W ciągu ostatnich pięciu lat firmy musiały budować własne narzędzia Continuous Delivery. Dla przykładu Netflix opracował autorskie rozwiązania na bazie platformy open source Spinnaker. Inni rozszerzają funkcjonalność systemów przeznaczonych do Continuous Integration, takich jak Jenkins czy Bamboo, co nie zawsze kończy się sukcesem. Notabene 45 proc. naszych klientów stanowią firmy, które wcześniej próbowały wdrożyć Continuous Delivery, ale im się to nie udało – wyjaśnia Steve Burton.
Harness opracowało autorską technologię Smart Automation umożliwiającą pełną automatyzację procesu Conti-
nuous Delivery. Dodatkowym walorem jest funkcja ciągłej weryfikacji, wykorzystująca mechanizmy uczenia maszynowego. System rozpoznaje podstawowe zachowania aplikacji, niezależnie od jej jakości, wydajności czy bezpieczeństwa, i może inicjować wycofywanie zmian w przypadku wykrycia nieprawidłowej aktywności – w rezultacie unika się przestoju bądź awarii. Steve Burton zwraca także uwagę na oszczędność kosztów modelu usługowego w porównaniu z budową własnej platformy – miesięczna opłata za instancję wynosi 25 dol.
Harness istnieje dopiero od 2016 r. i zgromadziło od funduszy venture capital 1,2 mln dol. Jyoti Bansal, założyciel tego kalifornijskiego startupu, nie ukrywa, że liczy na powtórzenie sukcesu swojej poprzedniej firmy – AppDynamics, którą w ubiegłym roku sprzedał Cisco za 3,7 mld dol.
Baza danych dla pamięci flash
Relacyjne bazy danych SQL przez lata królowały na rynku, ale ich dalszy prymat stoi pod znakiem zapytania. Do ofensywy przechodzą dostawcy baz NoSQL, które bardzo dobrze radzą sobie z obsługą danych niestrukturyzowanych oraz pracą w środowiskach rozproszonych. Szczególnie dużą popularnością w tej grupie produktów cieszą się Cassandra oraz MongoDB. W ich cieniu znajduje się system opracowany przez firmę Aerospike, wyróżniający się unikalną architekturą Hybrid Memory. Aerospike umożliwia równoległe wykorzystanie pamięci flash (SSD, PCIe, NVMe) na jednym systemie do wykonywania odczytów z opóźnieniami rzędu milisekund przy bardzo dużych obciążeniach.
– Praca z Aerospike pomaga nam analizować w czasie rzeczywistym 75 mln transakcji dziennie. Dzięki temu możemy szybko i precyzyjnie odróżnić prawdziwych użytkowników od oszustów, zapewniając naszym klientom pełne bezpieczeństwo – tłumaczy Phil Steffora, Chief Security
Officer w ThreatMetrix.
Powyższy przykład obrazuje możliwości, jakie niesie ze sobą technologia opracowana przez startup z Mountain View. Niemniej wykrywanie cyberprzestępców to tylko jedno z zadań realizowanych przez bazę Aerospike. Przedsiębiorstwa z branży AdTech wykorzystują jej wydajność do zakupu powierzchni reklamowej w modelu aukcyjnym. Aerospike działa od 2009 r. i łączą ją bliskie relacje z Intelem. Warto dodać, że startup otrzymał od funduszy venture capital 30 mln dol. – przeznacza je m.in. na rozwój produktu, który nie ogranicza się wyłącznie do bicia rekordów szybkości przetwarzania danych. W świecie biznesu występuje podział na narzędzia zaprojektowane do gromadzenia i pozyskiwania informacji (Systems of Record), np. danych abonentów telewizji kablowej, oraz społecznościowe systemy komunikacji (Systems of Engagement), które wykrywają próby oszustwa bądź prowadzą akcje online w czasie rzeczywistym. O ile druga grupa produktów wymaga zastosowania bazy danych o bardzo wysokiej wydajności, o tyle w przypadku pierwszym liczy się przede wszystkim spójność oraz precyzja. Aerospike zapewnia, że ich system łączy obie cechy, tym samym sprawdza się w różnego rodzaju zastosowaniach.
– Nasza architektura umożliwia ograniczenie liczby serwerów w centrum danych. Jeden z użytkowników Cassandry posiadał klaster składający się z 450 węzłów. Po wdrożeniu naszej bazy ich liczba zmniejszyła się do 60. To przynosi ogromne oszczędności, liczone nawet w milionach dolarów. Klienci nie wierzą nam, kiedy im o tym mówimy. Jedynym sposobem, aby ich do tego przekonać, jest przeprowadzenie projektu pilotażowego – mówi Brian Bulkowski, współzałożyciel i dyrektor techniczny Aerospike.
Dane strukturalne nie do lamusa
Todd Mostak, założyciel i CEO MapD, rozpoczął swoją przygodę z danymi podczas Arabskiej Wiosny Ludów. W owym czasie prowadził badania dotyczące wykorzystania Twittera wśród uczestników protestów i – żeby ułatwić sobie zadanie – opracował własny system do interaktywnej analizy dużych zbiorów danych. Rok po zakończeniu rebelii Mostak otworzył startup, w który zainwestowali m.in. In-Q-Tel (spółka córka CIA), Verizon oraz Nvidia. Do tej pory inwestorzy wpompowali w startup 37,1 mln dol.
MapD stanowi połączenie bazy open source SQL oraz systemu do analityki wizualnej. Platforma wykorzystuje do przeszukiwania zbiorów procesor GPU Nvidia, choć istnieje także możliwość użycia układu CPU. Czym tłumaczyć taki wybór? Jednostki różnią się sposobem przetwarzania zadań. CPU składa się z kilku rdzeni zoptymalizowanych pod kątem sekwencyjnego przetwarzania szeregowego, natomiast GPU zawiera tysiące mniejszych rdzeni zaprojektowanych z myślą o realizacji wielu zadań jednocześnie. Baza danych MapD napędzana przez GPU przeszukuje miliardy wierszy w ciągu kilkunastu milisekund, a proces tworzenia wizualizacji odbywa się w mgnieniu oka.
– Układ GPU zapewnia skanowanie danych z prędkością nawet 5 TB na sekundę, natomiast w przypadku CPU przy dużym szczęściu można osiągnąć wynik 100 GB na sekundę – dodaje Todd Mostak.
MapD znajduje szerokie zastosowanie w analityce operacyjnej, analizach geoprzestrzennych oraz badaniach naukowych. Na liście referencyjnej startupu z San Francisco znajdują się m.in.: Nividia, Verizon, Huawei, Ericsson i Fannie Mae. W marcu firma zaczęła sprzedawać swoje produkty w modelu subskrypcyjnym. Ceny zaczynają się od 150 dol. za miesiąc dla zestawu danych strukturalnych do 10 mln wierszy. Taki krok ma ułatwić dostęp do zaawansowanego narzędzia analitycznego mniejszym podmiotom. Nie ulega wątpliwości, że popyt na tego typu rozwiązania będzie szybko rosnąć. Jak wynika z badań McKinsey, firmy i instytucje poświęcają ok. 80 proc. czasu na przygotowywanie i zarządzanie danymi. Innym problemem jest deficyt specjalistów od danych. W bieżącym roku w Stanach Zjednoczonych pozostanie nieobsadzona około połowa stanowisk Data Scientist.
– Procesory graficzne nie wszędzie zdają egzamin. Na przykład niezbyt łatwo radzą sobie z przetwarzaniem sekwencyjnym i danymi niestrukturalnymi. Natomiast architektura GPU świetnie sprawdza się w przypadku pracy z zasobami uporządkowanymi, które wciąż pełnią ważną rolę. Według IDC 75 proc. zarządzanych danych stanowią zasoby strukturalne. Kiedy przyjrzymy się trendom sprzętowym na rynku nowych technologii, nie dziwią rosnące akcje Nvidii – mówi Todd Mostak.
SAP Hana dla oszczędnych
Technologia in-memory wprowadziła spore ożywienie na rynku oprogramowania. Jej innowacyjność polega na przeniesieniu procesów zarządzania zbiorami danych z przestrzeni dyskowej do pamięci operacyjnej RAM, która oferuje kilkanaście razy szybszy odczyt i zapis aniżeli nośniki SSD. To rozwiązanie najczęściej utożsamiane jest z systemem SAP Hana, tymczasem na rynku istnieją alternatywne produkty. Ciekawy przykład stanowi amerykańska firma GridGain, która dostarcza platformę in-memory zbudowaną na bazie systemu open source Apache Ignite.
– Udostępnienie podstawowej bazy kodu źródłowego do Apache Software Foundation ma zapewnić rozwój i popularyzację technologii in-memory, a także zbudować dobrze prosperującą społeczność realizującą nowe projekty – tłumaczy Abe Kleinfeld, CEO GridGain.
Baza Ignite odnotowała milion pobrań w skali roku, zajmując piąte miejsce na liście najpopularniejszych projektów Apache
(najwyżej uplasował się Hadoop). Warto także zwrócić uwagę na to, że przychody GridGain w latach 2014–2016 wzrosły o 919 proc., osiągając poziom 4 mln dol. Firma ma ok. 100 płatnych klientów, w tym banki Barclays, Société Generale oraz ING, a także fintechy i biura podróży.
– Jesteśmy czymś na wzór „open source Hana”. System SAP nie jest wdrażany przez startupy ani firmy, które wcześniej nie inwestowały w technologie niemieckiego producenta. Największą barierą są wysokie koszty. Coraz więcej przedsiębiorców przekonuje się do rozwiązań open source, wybierając je zamiast Oracle’a, Microsoftu czy SAP-a – przekonuje Abe Kleinfeld.
Według Gartnera w przyszłym roku rynek systemów in-memory osiągnie wartość 11 mld dol. Dla porównania: w 2014 r. przychody w tym segmencie wyniosły niespełna 4 mld dol. Abe Kleinfeld uważa, że w najbliższych latach stymulatorem popytu będzie cyfrowa transformacja. Nowe uwarunkowania przyczynią się do wzrostu popularności procesów hybrydowego przetwarzania transakcji i analiz, z którym nie poradzą sobie tradycyjne rozwiązania. Kolejnym czynnikiem, który powoduje wzrost zainteresowania systemami in-memory, jest omnichannel. Co ciekawe, GridGain, jako jeden z nielicznych graczy uczestniczących w wyścigu na rynku aplikacji, już na siebie zarabia, a więc – innymi słowy – nie potrzebuje inwestorskiej kroplówki. A to najlepszy dowód na to, że ten biznes ma sens i jest rozwojowy.
Artykuł Wyścig z danymi w tle: liczy się każda milisekunda pochodzi z serwisu CRN.
]]>Artykuł Coraz bardziej wartościowa metoda pochodzi z serwisu CRN.
]]>Według analiz Allied Market Research wartość światowego rynku DevOps wynosiła w 2016 roku 2,9 mld dolarów. Do 2023 roku ma wzrosnąć do 9,4 mld. Tempo wzrostu szacowane jest na 18 proc. rok do roku.
Jak pokazuje raport firmy Puppet, ilość organizacji pracujących w dedykowanym dziale DevOps wzrosła w latach 2014-2017 z 16 do 27 proc. Połowa uczestników badania przeprowadzonego na zlecenie firmy Logz.io stwierdziło, że rozpoczęło wdrażanie lub wdrożyło DevOps w swoim przedsiębiorstwie.
Do głównych zalet metodologii zaliczane jest m.in. szybsze dostarczanie rozwiązań na rynek oraz niższe koszty utrzymania infrastruktury. „DevOps pozwala wykorzystać synergię kompetencji takich jak zarządzanie infrastrukturą, jakością i bezpieczeństwem” – ocenia Tomasz Dziedzic, Chief Technology Officer w Linux Polska. Podkreśla przy tym, że wdrożenie DevOps w przedsiębiorstwach wymaga nie tylko wprowadzenia nowych technologii i narzędzi, lecz także zmian w organizacji pracy.
Artykuł Coraz bardziej wartościowa metoda pochodzi z serwisu CRN.
]]>