Artykuł 7 mitów dotyczących analizy danych w chmurze pochodzi z serwisu CRN.
]]>Mit 1: Dane można z łatwością przesłać do chmury
Jak jest naprawdę?
W rzeczywistości przeniesienie danych do chmury wcale nie jest takie proste. Jedną z przeszkód jest fakt, że wiele osób nadal sceptycznie podchodzi do rozwiązań chmurowych i nie chce umieszczać swoich danych „gdzieś w internecie”. Wydaje się, że najistotniejszym czynnikiem, który wpływa na poziom zaufania do chmury, jest lokalizacja centrum danych. Wiele kontrowersji budzi również przesyłanie danych osobowych. Instytucje finansowe nie palą się, by przechowywać wrażliwe dane w chmurze. Kolejnym problemem jest rozproszenie źródeł danych. Dane zapisane są w różnych formatach i pochodzą od różnych właścicieli, co dodatkowo komplikuje proces migracji.
Rozwiązanie
Nie ma sensu myśleć o zaawansowanej analizie danych, dopóki nie uporamy się z przesłaniem ich do chmury. Jak się za to zabrać? Po pierwsze należy w odpowiedni sposób traktować informacje umożliwiające identyfikację osób (tzw. PII – Personally Identifiable Information). Jeśli dana organizacja zgłasza obawy dotyczące danych osobowych, można rozważyć migrację wyłącznie numerów identyfikacyjnych i robienie obliczeń na ich podstawie. Dopiero, gdy potrzebne są bardziej szczegółowe informacje, np. nazwisko lub adres, przenosimy numery identyfikacyjne z chmury na platformę lokalną i tłumaczymy.
Migrację danych należy zaplanować z dużym wyprzedzeniem. Nawet zaczynając od projektu POC (ang. Proof of Concept), polegającego na weryfikacji koncepcji, trzeba pamiętać, że regularny transfer danych do chmury, umożliwiający przekazanie rozwiązania do produkcji, wymaga wielogodzinnego planowania i podpisania wielu umów. Niezwykle istotne jest, aby dostawcy rozwiązań chmurowych, tacy jak Microsoft, dobrze komunikowali się ze swoimi klientami. W szczególności powinno zależeć im na wyjaśnieniu możliwości i mechanizmów działania chmury w zakresie bezpieczeństwa.
Mit 2: Dane są natychmiast integrowane i gotowe do analizy
Jak jest naprawdę?
Niestety nie jest tak łatwo. Wspomniałem już o trudnościach wynikających z różnic między formatami danych. Wszystkie dane – arkusze Excel, bazy danych SQL, pliki PDF, pliki JPG i inne rodzaje niekompletnych, niespójnych danych pochodzących z nie zawsze wiarygodnych źródeł – muszą być „oczyszczone” i zintegrowane zanim można przystąpić do ich analizy. Kolejną przeszkodą jest złożony proces ładowania. Źródła danych potrzebują różnych narzędzi, by okresowo ładować informacje do chmury. Ponadto ilość danych bywa tak duża, że nawet posługując się rozwiązaniami chmurowymi, do przeprowadzenia migracji trzeba skonfigurować odpowiednie ustawienia i mechanizmy optymalizacji.
Rozwiązanie
Powszechnie wiadomo, że przed przystąpieniem do zaawansowanej analizy danych – a taką jest uczenie maszynowe – należy stworzyć hurtownię danych. Zaczynając nowy projekt, zazwyczaj wdrażamy nowoczesną hurtownię danych klasy enterprise. Na tym etapie gromadzi się wszystkie źródła danych i tworzy odpowiednie procesy ładowania. Dopiero po ustrukturyzowaniu i uporządkowaniu źródeł danych uczenie maszynowe przyniesie wiarygodne rezultaty.
Pracując z danymi, kierujemy się zasadami i wzorcami będącymi częścią Predica Data Domain Framework (PDDF). Jest to kompletne repozytorium bazujące na naszym doświadczeniu oraz najlepszych praktykach DataOps. Na PDDF składają się m.in. powszechnie używane nazewnictwo, podejścia oraz procesy związane z tworzeniem usług i środowisk. W Predica stworzyliśmy nawet własne procedury testowe, aby monitorować funkcjonowanie hurtowni danych. Tylko to daje nam pewność, że dane są prawidłowe i mogą zostać z powodzeniem wykorzystane w uczeniu maszynowym.
Mit 3: Modele uczenia maszynowego wdraża się szybko, a decyzje na ich podstawie można podejmować od razu
Jak jest naprawdę?
Nic z tych rzeczy. Faktem jest, że uczenie maszynowe staje się coraz prostsze. Nowoczesne usługi, takie jak Azure ML, pozwalają tworzyć wiele modeli uczenia maszynowego jednym kliknięciem, ale uwaga – nie wiedząc, co dzieje się „pod maską”, nietrudno pomylić się w interpretacji wyników i podjąć złe decyzje. Co więcej, czasami narzędzia typu Azure ML można stosować tylko w określonych przypadkach. Nie zawsze można więc polegać na całkowitej automatyzacji usług.
Rozwiązanie
Po pierwsze: jeśli rzeczywiście zależy nam na podejmowaniu decyzji biznesowych w oparciu o wyniki dostarczone przez modele uczenia maszynowego, musimy mieć możliwość monitorowania skuteczności tych modeli. Dobrym przykładem rozwiązania, które pomaga zrozumieć tajniki modelu uczenia maszynowego, jest pulpit Power BI. Nie można też polegać na pojedynczym wskaźniku. Trzeba wziąć pod uwagę różne parametry, zależnie od okoliczności i specyfiki naszego biznesu. Na koniec warto również wyznaczyć benchmark, czyli wskaźnik referencyjny, który pozwoli nam ocenić wartość modelu uczenia maszynowego.
Mit 4: Modele są natychmiast wdrażane i wykorzystywane w produkcji
Jak jest naprawdę?
Prawda jest taka, że spora część modeli nie wychodzi nawet poza etap weryfikacji (POC). Wynika to z faktu, że wdrożenie modelu do produkcji jest wyjątkowo czasochłonnym procesem. Przed rozpoczęciem projektu musi wydarzyć się wiele rzeczy: podpisywanie umów, ustalanie praw własności, podejmowanie decyzji. Niektórym firmom po prostu brakuje do tego cierpliwości. Następny problem polega na tym, że modele wprowadzone do produkcji rzadko kiedy są monitorowane. Tymczasem warunki mogą się zmienić, powodując, że skuteczność modeli spadnie. Przykładowo wybuch pandemii miał olbrzymi wpływ na modele uczenia maszynowego i sprawił, że przewidywanie czegokolwiek stało się niemożliwe. To oczywiście dość ekstremalny przykład, ale nie brakuje też mniejszych. Jeśli modele używane w produkcji nie są monitorowane, będą zwracać fałszywe wyniki. Czasami zaś w ogóle nie docierają do etapu produkcyjnego, bo osoby decyzyjne się zniechęcają. Na koniec warto podkreślić, że modele tworzy się z myślą o wprowadzaniu uzyskanych wyników do innych systemów – a to zdarza się rzadko. Modele funkcjonują niejako „z boku”, wyjęte poza obszar pozostałych działań firmy. Ich stosowanie nie jest też zautomatyzowane, np. tak, aby wspomagały kampanię marketingową. Mówiąc krótko, model gubi się gdzieś po drodze.
Rozwiązanie
Już na samym początku projektu POC trzeba zaplanować produkcję i wyjaśnić wszystkim osobom decyzyjnym, że zatrzymanie się na etapie weryfikacji koncepcji to wyrzucanie pieniędzy w błoto. Inwestujemy w rozwiązanie, które przyniesie korzyści dopiero w dłuższej perspektywie czasowej. Chcę też zwrócić szczególną uwagę na mechanizm przeglądania wyników. Powtórzmy raz jeszcze: po wprowadzeniu modeli do produkcji trzeba mieć możliwość ich łatwego monitorowania, tak aby kierownictwo wiedziało, jakie przynoszą korzyści. Odpowiedzią jest MLOps (MachineLearningOps), czyli zestaw praktyk obejmujących budowanie i monitorowanie modeli oraz zarządzanie nimi.
Mit 5: Uczenie maszynowe to praktycznie forma magii zdolna rozwiązać każdy problem
Jak jest naprawdę?
W niektórych przypadkach uczenie maszynowe i zaawansowana analiza danych wcale nie są konieczne, a do rozwiązania problemu wystarczą inne, dużo prostsze sposoby. Wprowadzanie uczenia maszynowego tylko dlatego, że taki panuje obecnie trend, w praktyce nie przyniesie żadnych korzyści. Wdrożenie może również zawieść, jeśli za szybko podniesiemy sobie poprzeczkę. Nawet jeśli istnieją silne przesłanki, by spróbować uczenia maszynowego, nie powinniśmy zaczynać od zbyt skomplikowanych metod.
Na koniec warto dodać, że niektóre firmy po prostu nie są gotowe na wprowadzenie uczenia maszynowego, ponieważ brakuje im wewnętrznych kompetencji. Nawet jeśli zaczną od współpracy z zewnętrznym dostawcą, w przyszłości trudno im będzie rozwijać modele i dostosowywać je do zmieniających się warunków.
Rozwiązanie
Dobrym punktem wyjścia jest przyjęcie odpowiedniego podejścia do danych, czego przykładem są wspomniane już wcześniej praktyki DataOps i MLOps. Jeśli chcemy analizować dane, zamiast od uczenia maszynowego zacznijmy od wizualizacji i Power BI. Uczenie maszynowe (a mówiąc ogólniej, danologia) obejmuje bowiem procesy, nad przebiegiem których musi czuwać wiele osób. Przedsiębiorstwo potrzebuje więc pracowników, którzy mają różne kompetencje, dzięki którym są w stanie zająć się wszystkimi zaawansowanymi zadaniami. Koniec końców, aby móc korzystać z uczenia maszynowego, należy zainwestować w umiejętności, a także zadbać o to, by były one stopniowo rozwijane.
Gorąco zachęcam, żeby zacząć od prostszych metod. Oczywiście uczenie maszynowe może być bardzo przydatne, ale czasami warto odłożyć je na później.
Mit 6: Organizacje chcą korzystać z modeli uczenia maszynowego i chętnie je wdrażają
Jak jest naprawdę?
Uczenie maszynowe jest mocno reklamowane, ale entuzjazm wielu firm opada w momencie, kiedy przychodzi pierwszy rachunek. Powiedzmy szczerze: żeby czerpać korzyści z zaawansowanej analizy danych, trzeba najpierw zainwestować. Czasami przychodzi długo poczekać, aż uczenie maszynowe zacznie przynosić jakieś efekty. Znam mnóstwo organizacji, które próbowały wielu modeli uczenia maszynowego, ale ostatecznie wycofały się z powodu braku zadowalających rezultatów. A gdyby poczekały dłużej albo zainwestowały nieco więcej, uczenie maszynowe zaczęłoby owocować.
Wprowadzając uczenie maszynowe do firmy trzeba więc zadbać o to, by jego wyniki były dobrze wyjaśnione. Zazwyczaj tak się nie dzieje. Pojedyncze numery wypluwane z czarnej skrzynki nic nam przecież nie mówią.
Ostatnia, ale równie ważna rzecz: musimy uzbroić się w cierpliwość i dać naszemu modelowi trochę czasu. W niektórych przypadkach efekty nie będą widoczne od razu; tak po prostu jest. Właśnie dlatego uczenie maszynowe nie jest odpowiedzią na wszystkie bolączki.
Rozwiązanie
Warto zacząć od obszarów, w których uczenie maszynowe najszybciej przyniesie widoczne rezultaty. Ostatnio realizowaliśmy projekt dla pewnego działu finansów. Zastosowaliśmy uczenie maszynowe nie po to, aby stworzyć zaawansowany mechanizm dostarczający informacje o zachowaniach klientów, ale po to, aby wykrywać anomalie w płatnościach. Po czterech tygodniach udało nam się wychwycić wiele duplikatów, dzięki czemu nasz klient zaoszczędził sporo pieniędzy. Namacalne oszczędności okazały się przekonującym argumentem dla osób decyzyjnych i obecnie kontynuujemy naszą przygodę z uczeniem maszynowym w tej firmie. Promując uczenie maszynowe, warto podeprzeć się liczbami zaczerpniętymi z pulpitu Power BI, pulpitu Tableau albo dowolnego narzędzia do wizualizacji (sprawdzi się nawet Excel). Chodzi o to, aby pomóc osobom decyzyjnym zrozumieć sposób działania uczenia maszynowego.
Nie zapominajmy też o planowaniu długoterminowym. Jeśli nie chcemy zatrzymać się na etapie POC, stworzenie samego modelu nie wystarczy. Potrzebny będzie harmonogram działań uwzględniający m.in. ścieżkę dalszego rozwoju, potencjalne korzyści dla różnych działów firmy, możliwości doskonalenia modelu i sposoby śledzenia wyników.
Mit 7: Projekt analizy danych da się od razu zaplanować od A do Z
Jak jest naprawdę?
Projekt uczenia maszynowego może zrobić zwrot w nieoczekiwanym kierunku. Czasem okazuje się, że zastosowana metoda nie nadaje się do rozwiązania danego problemu. Może się też zdarzyć, że model nie działa z powodu zbyt niskiej jakości danych. Jeśli badane zjawisko jest rzadkie, znalezienie odpowiedniego modelu może trochę potrwać.
Raz stworzony model uczenia maszynowego należy ciągle dostosowywać i monitorować. Do tego zaś potrzeba odpowiedniego zespołu, który będzie prowadził obserwacje. Właśnie dlatego nie zawsze da się przewidzieć, jak rozwiną się tego rodzaju projekty.
Rozwiązanie
Nie należy zawsze polegać na gotowych rozwiązaniach. Zamiast tego starajmy się dopasowywać modele uczenia maszynowego do konkretnych problemów. Oprócz tego warto wprowadzić stałe monitorowanie integracji.
Takie dynamiczne podejście pozwala szybko uzyskać wyniki modelowania. Dzięki temu możemy ciągle doskonalić nasz model i osiągnąć satysfakcjonujące efekty. Jeśli w tym celu należałoby zmienić kierunek projektu, to tak właśnie trzeba zrobić. To oczywiście truizm, niemniej na tyle ważny, że warto się nim posłużyć: otóż w każdej dziedzinie – również w analizie danych – zdarzają się niepowodzenia. Trzeba wówczas podeprzeć się zdobytym doświadczeniem i obrać inny kierunek z przekonaniem, że następnym razem pójdzie lepiej.
Jak to działa w naszym przypadku? Korzystamy ze wspomnianego już wcześniej repozytorium Predica Data Domain Framework (patrz: Mit nr 2 „Dane są natychmiast integrowane i gotowe do analizy”). W naszej „Wikipedii” znajduje się sekcja dotycząca m.in. projektów baz danych, projektów Databricks i projektów uczenia maszynowego. W razie wątpliwości możemy sprawdzić, co robić – np. jak prowadzić dany projekt albo, jeśli to potrzebne, zmienić jego kierunek.
Autor pełni funkcję Digital Advisor Lead w firmie Predica.
Artykuł 7 mitów dotyczących analizy danych w chmurze pochodzi z serwisu CRN.
]]>Artykuł Optymalne zarządzanie w przemyśle 4.0 pochodzi z serwisu CRN.
]]>Zdalne procesy
W zakładach przemysłowych odległości między poszczególnymi sekcjami produkcji mogą być tak duże, że fizyczne monitorowanie każdej indywidualnej linii staje się utrudnione czy wręcz niemożliwe. Konieczność przemieszczania się pracowników, którzy w swej wędrówce po zakładzie muszą używać kolejnych komputerów przemysłowych, to nie tylko tracony czas, ale też większe koszty pracy. To także większe wydatki na sprzęt, bo dla każdego z tych komputerów trzeba zakupić oddzielny monitor, klawiaturę i mysz. W dodatku zakład może obejmować także pomieszczenia sterylne, w których procedury wyjścia i wejścia są uciążliwe i skomplikowane. Stąd też potrzeba ograniczenia liczby wizyt pracowników tylko do niezbędnych.
Wśród rozwiązań firmy ATEN, które znoszą ograniczenia związane z odległościami i innymi utrudnieniami w zakładach przemysłowych, jest wydajny nadajnik KVM over IP RCMDVI40AT. Wykorzystując unikalny RCM API, urządzenie umożliwia automatyzację zdalnych sekwencji kontroli w formie naciśnięć klawiszy lub ruchów myszki. Zastosowane na liniach produkcyjnych oferuje też powiadamianie w postaci paska OSD oraz przycisk kontroli dostępu (2XRT-0015G), umożliwiając lokalne włączanie/wyłączanie uprawnień do zdalnego sterowania.
Testowanie i kontrola jakości
Inżynierowie budujący system do testowania i kontroli jakości muszą mieć pewność, że będzie on gwarantował najwyższą jakość tworzonych w zakładzie produktów, w tym komputerów czy innych urządzeń elektronicznych, oraz zapewniał najwyższą niezawodność procesu. Skrócenie etapu konfigurowania urządzeń bez negatywnego wpływu na procedurę kontroli jakości ma dla zakładu produkcyjnego kluczowe znaczenie. Zastosowanie rozwiązań KVM umożliwiających zdalne monitorowanie ogranicza problemy testowania produktów w wielu różnych laboratoriach i lokalizacjach. Przykładowo, zastosowanie jednego przełącznika KVM over IP i trybu Panel Array umożliwia kontrolowanie nawet 16 stanowisk testowych jednocześnie. Na każdym z nich oszczędzany jest czas i zasoby ludzkie, a liczba skonfigurowanych i przetestowanych produktów rośnie. Co istotne, rozwiązania KVM over IP można w oparciu o inne produkty tego dostawcy integrować z systemami dystrybucji obrazu oraz ścianami wideo.
API w automatyzacji i analizie danych
Przemysł 4.0 to automatyzacja linii produkcyjnych i wiele związanych z tym wyzwań. Utrudnieniem może być identyfikowanie informacji zwrotnych dotyczących produkcji czy rozpoznawanie rodzaju ostrzeżeń systemowych. Przed opartą na OCR automatyzacją operatorzy musieli wejść na linię produkcyjną i manualnie korygować błędy. Teraz dostępne są rozwiązania umożliwiające identyfikację danych maszynowych w ramach zautomatyzowanego procesu. Można je tworzyć poprzez integrację narzędzi zdalnej kontroli i monitoringu firmy ATEN z oprogramowaniem do automatyzacji i analizy danych.
Dodatkowe informacje: tel. 514 120 220, office@pl.aten.com, www.aten.pl
Artykuł Optymalne zarządzanie w przemyśle 4.0 pochodzi z serwisu CRN.
]]>Artykuł InfoSight, czyli AI w centrum danych pochodzi z serwisu CRN.
]]>– W optymalnej sytuacji, zamiast zajmować się usuwaniem awarii, specjaliści IT mogliby wykonywać bardziej ambitne zadania, np. tworzyć potrzebne firmie aplikacje. To zmieniłoby nie tylko ich stosunek do pracy, lecz także sposób postrzegania działów IT przez pozostałych pracowników przedsiębiorstw. Najczęściej są one traktowane jako generatory kosztów, a przecież mają szansę stać się komórkami efektywnie zwiększającymi przewagę konkurencyjną firmy – tłumaczy Marcin Tymieniecki, HPE Business Development Manager w ALSO Polska.
Wsparciem dla zapracowanych oraz sfrustrowanych administratorów IT może być specjalistyczne oprogramowanie. Większość takich produktów służy jednak do monitorowania konkretnych rozwiązań i radzenia sobie z cząstkowymi problemami, które mają związek z jedną częścią infrastruktury. Zdecydowanie więcej możliwości w tym obszarze oferuje analityczna platforma chmurowa HPE InfoSight. System wykorzystuje mechanizmy uczenia maszynowego do prowadzenia globalnego wglądu w infrastrukturę IT (m.in. serwerów, pamięci masowych oraz zwirtualizowanych zasobów) i jej analizy.
W ciągu dekady platforma przeanalizowała dane z kilkuset bilionów punktów i pozwoliła zaoszczędzić działom IT około 1,5 mln godzin pracy. InfoSight, dzięki dostępowi do wielkiej bazy danych, znacznie upraszcza zarządzanie infrastrukturą, przewidując problemy i zapobiegając im oraz optymalizując wydajność aplikacji. Początkowo platforma była oferowana wyłącznie z macierzami dyskowymi
Nimble Storage. Począwszy od marca 2017 r., a więc daty przejęcia start-upu przez HPE, narzędzie to stało się dostępne również dla innych rozwiązań: HPE Primera, HPE SimpliVity, HPE 3PAR, HPE ProLiant DL, HPE ProLiant ML, HPE ProLiant BL, HPE Apollo Systems oraz HPE Synergy. Podłączenie platformy do posiadanego urządzenia nie jest obligatoryjne, jednak rezygnując z tej opcji, klient musi samodzielnie nadzorować system. Są to jednak rzadkie przypadki. Zwykle dotyczą instytucji sektora publicznego, realizujących restrykcyjną politykę bezpieczeństwa.
Działy IT w rozmaity sposób próbują uporać się z brakiem dostępu do aplikacji lub ich nieprawidłowym działaniem. Niezależnie od zastosowanych metod, rozwiązanie tego problemu nie jest trywialne, tym bardziej że gros przedsiębiorstw korzysta z kilku systemów pochodzących od różnych producentów. Centra danych składają się z wielu warstw sprzętu i oprogramowania, w tym sieci, serwerów, pamięci masowych, hypervisorów, systemów operacyjnych i aplikacji. W obrębie każdej warstwy może znajdować się wiele pojedynczych komponentów kilku różnych marek.
– Wiem z własnego doświadczenia, że wykrycie usterki w większości przypadków zajmuje mnóstwo czasu. Najczęściej wiąże się to ze zbieraniem i analizą logów, a następnie z wydaniem rekomendacji. Taki proces może ciągnąć się nawet dwa tygodnie, a finał jest zazwyczaj bardzo podobny. Otóż działy IT dochodzą do wniosku, że należy zwiększyć wydajność systemu przez dodanie kolejnych nośników flash i niestety, często jest to nieprawidłowa diagnoza – tłumaczy Marcin Tymieniecki.
Z badań przeprowadzonych przez specjalistów HPE wynika, że ponad 90 proc. problemów powodujących nieefektywne działanie aplikacji powstaje poza pamięcią masową. Przeczy to obiegowym
teoriom, że macierz dyskowa jest najczęstszą przyczyną nieprawidłowego działania aplikacji.
– Unikatowe podejście do gromadzenia i analizy danych HPE InfoSight wykracza poza możliwości innych narzędzi analitycznych, a także zespołów ludzkich. Zastosowanie platformy chroni przed popełnianiem błędów, a tym samym niepotrzebnymi inwestycjami w nowy sprzęt bądź nośniki. Według wyliczeń HPE koszty związane z użytkowaniem pamięci masowych spadają dzięki temu o blisko 80 proc. – wyjaśnia Marcin Tymieniecki.
Platforma rejestruje co sekundę dane telemetryczne z systemów, podsystemów i otaczającej je infrastruktury IT, działających w różnych częściach świata. HPE InfoSight cały czas uczy się na podstawie gromadzonych danych i rozumie potrzeby idealnego środowiska operacyjnego dla rozmaitych rodzajów obciążeń i dowolnej aplikacji biznesowej. Zaawansowane uczenie maszynowe udoskonala predykcyjne mechanizmy analityczne i silnik rekomendacji. Platforma wykrywa potencjalne problemy na podstawie wzorców zachowania i konfiguracji każdego systemu.
Dzięki dostępowi do danych zebranych w dużej populacji HPE InfoSight zapewnia stworzenie linii bazowej dla konkretnego środowiska, którą wykorzystuje do identyfikacji obszarów o niskiej wydajności. Co istotne, narzędzie dostarcza jednocześnie środki zaradcze. Producent nie dopuszcza do tego, by raz zdiagnozowany problem powtórzył się u innych klientów. System tworzy więc reguły mające na celu zapobieganie występowaniu określonej usterki lub przystępuje do automatycznej naprawy. Wykorzystanie zaawansowanej analizy danych i uczenia maszynowego stanowi optymalną metodę wykrywania anomalii i potencjalnych problemów występujących w centrach danych. Platforma HPE InfoSight nieustannie gromadzi informacje i wyciąga na ich podstawie wnioski, dzięki czemu użytkownicy nie tracą czasu na poszukiwanie usterek. Rozwiązanie toruje drogę autonomicznej infrastrukturze. Takiej, która samodzielnie się zarządza, leczy i optymalizuje.
Marcina Tymienieckiego, HPE Business Development Managera, ALSO Polska
Czy autonomiczne narzędzia do monitoringu i zarządzania infrastrukturą IT lepiej radzą sobie z rozwiązywaniem problemów niż pracownicy działu IT?
Użytkownicy biznesowi oczekują natychmiastowego dostępu do danych, cały czas i bez przerwy. Jednak w rzeczywistości nie zawsze można spełnić te oczekiwania. Droga danych do aplikacji potrafi być długa i skomplikowana. Wymaga stałego nadzoru i reagowania na ewentualne sytuacje awaryjne, które mają wpływ na wydajne działanie aplikacji. To zmusza działy IT do przyjęcia reaktywnej roli. Oczywiście można zatrudniać zespoły wysoce wykwalifikowanych specjalistów wyłącznie w celu poprawy poszczególnych procesów zachodzących w centrach danych. Jednak optymalizacja wydajności pozostaje wyzwaniem nawet dla najlepiej zorganizowanych działów IT. Alternatywą może być wykorzystanie analizy danych i uczenia maszynowego. Takie narzędzia, jak HPE InfoSight, zbierają dane telemetryczne z tysięcy punktów w każdym miejscu centrum danych i są zdecydowanie bardziej skuteczne aniżeli najlepsi specjaliści IT, którzy mają dostęp do małego wycinka infrastruktury.
Czy to oznacza, że świat nowych technologii stał się zbyt skomplikowany nawet dla ludzi doskonale obeznanych z branżą IT?
Centra danych składają się z wielu warstw sprzętu i oprogramowania. W obrębie każdej z nich może znajdować się wiele pojedynczych elementów. Teoretycznie wszystkie komponenty powinny być zaprojektowane w taki sposób, żeby ze sobą współpracowały. Niemniej mamy do czynienia z dużą złożonością spowodowaną ogromną liczbą składników i zachodzącymi między nimi interakcjami. Te czynniki oraz fakt, że najwolniejszy komponent ogranicza wydajność aplikacji, stanowią główną przyczynę jej nieefektywnego działania. Trudno nad tym zapanować, stosując jedynie klasyczne podejście, polegające na budowaniu wśród pracowników kompetencji dotyczących zarządzania każdym elementem składowym centrum danych – oprogramowaniem, infrastrukturą fizyczną jak i narzędziami do monitorowania.
Na ile HPE InfoSight pomaga w sprzedaży macierzy i serwerów HPE?
Żaden z producentów macierzy dyskowych nie oferuje takiego rozwiązania jak HPE InfoSight. Jego szczególnym wyróżnikiem jest rozbudowany silnik, bazujący na ogromnej ilości danych. Co ważne, klient kupujący sprzęt HPE kompatybilny z platformą analityczną, otrzymuje ją w standardzie. Atuty HPE InfoSight dostrzegają zarówno integratorzy, jak i ich klienci. Ci ostatni często korzystają z wersji demonstracyjnych, a także realizują wdrożenia typu proof of concept.
Dodatkowe informacje:
Marcin Tymieniecki,
HPE Business Development Manager, ALSO Polska,
marcin.tymieniecki@also.com
Artykuł InfoSight, czyli AI w centrum danych pochodzi z serwisu CRN.
]]>Artykuł Cyfrowa transformacja: dostosuj się albo giń pochodzi z serwisu CRN.
]]>Podstawą cyfrowej przemiany jest, według ekspertów IDC, tzw. Trzecia Platforma, czyli ekosystem rozwiązań opartych na usługach przetwarzania danych w chmurze, technologiach mobilnych, analizie Big Data i mediach społecznościowych.
IDC prognozuje, że w 2020 r. 67 proc. wszystkich wydatków firm na infrastrukturę IT i oprogramowanie pochłonie chmura obliczeniowa. Również w 2020 r. 70 proc. przychodów dostawców usług przetwarzania danych w chmurze będzie generowane przez partnerów handlowych i innych pośredników. Do roku 2018 co najmniej jedna trzecia obrotów największych partnerów handlowych, generowanych do tej pory ze sprzedaży sprzętu, będzie pochodziła ze sprzedaży lub pośrednictwa w sprzedaży usług opartych o technologię chmury.
W najbliższych latach, zdaniem analityków IDC, czeka nas również dynamiczny rozwój rozwiązań kognitywnych i sztucznej inteligencji. Do 2018 r. 75 proc. zespołów programistycznych włączy te technologie w co najmniej jedną aplikację. Technologie cyfrowe zostaną połączone z ludzkim ciałem a rozwiązania wirtualnej i rozszerzonej rzeczywistości coraz częściej będą wykorzystywane w działaniach marketingowych. Na rynku pracy wzrośnie znacząco zapotrzebowanie na ekspertów wyspecjalizowanych w technologiach kognitywnych i sztucznej inteligencji. Do końca 2017 roku ponad 70 proc. przedsiębiorstw spośród 500 największych na świecie zatrudni zespoły wyspecjalizowane w cyfrowej transformacji i innowacjach.
Prognozy rozwoju cyfrowej gospodarki według IDC
1. Technologie cyfrowe podstawą budowania oferty rynkowej. W 2020 roku sukces połowy z dwóch tysięcy największych firm świata, będzie zależał od umiejętnego tworzenia produktów, usług i sposobów obsługi klientów z wykorzystaniem technologii cyfrowych. Inwestycje w cyfrową transformacją osiągną w 2019 roku poziom 2,2 bln dol. Oznacza to, że będą o prawie 60 proc. wyższe niż w 2016 roku. Jednym z kluczowych obszarów będzie rozwijanie oferty w oparciu o posiadane dane.
2. Trzecia platforma, sztuczna inteligencja i wirtualna rzeczywistość pochłoną najwięcej wydatków na IT. Usługi Trzeciej Platformy, chmura publiczna, zaawansowana analityka, rozwiązania mobilne, akceleratory innowacji, systemy kognitywne, sztuczna inteligencja, rzeczywistość rozszerzona i wirtualna (AR i VR) oraz bezpieczeństwo nowej generacji to obszary, które będą wkrótce stanowić prawie 75 proc. wydatków na wszystkie technologie informatyczne. Wskaźnik ich wzrostu będzie dwukrotnie wyższy niż dla całego rynku informatycznego.
3. Najwięcej inwestycji w infrastrukturę i oprogramowanie dotyczyć będzie rozwiązań chmurowych. W 2020 r. technologie chmurowe pochłoną aż 67 proc. wszystkich wydatków przedsiębiorstw na infrastrukturę informatyczną i oprogramowanie. Filozofia „przede wszystkim chmura” staje się dominującym podejściem do infrastruktury informatycznej i oprogramowania, a w niektórych krajach ustępuję już miejsca modelowi „tylko chmura”. Prognozy zakładają również, że same chmury staną się bardziej rozproszone, bezpieczniejsze, inteligentniejsze i lepiej dostosowane do wymagań konkretnych branż.
4. Znaczący wzrost roli sztucznej inteligencji. Dynamicznie będzie rosła rola rozwiązań kognitywnych i sztucznej inteligencji (AI). Narzędzia te już w 2019 r. będą wspierać 40 proc. inicjatyw dotyczących cyfrowej transformacji oraz 100 proc. działań w obszarze Internetu Rzeczy (IoT). Użyteczność olbrzymiej ilości danych generowanych przez IoT będzie w dużej mierze uzależniona od ich analizy i umiejętności wyciągania wniosków. Na rynku pracy wzrośnie znacząco zapotrzebowanie na ekspertów wyspecjalizowanych w technologiach kognitywnych i sztucznej inteligencji. Do 2018 r. 75 proc. zespołów programistycznych włączy je w co najmniej jedną aplikację.
5. Wykorzystanie wirtualnej i rozszerzonej rzeczywistości w obsłudze klientów. W 2017 r. 30 proc. przedsiębiorstw z rankingu Global 2000, które obsługują bezpośrednio klientów, będzie eksperymentalnie wykorzystywać technologie rzeczywistości rozszerzonej lub wirtualnej w kampaniach marketingowych. W 2021 r. ponad miliard osób na całym świecie będzie regularnie korzystać z dostępu do aplikacji, treści i danych za pośrednictwem platform AR/VR.
6. Specjalne platformy chmurowe do współpracy firm z jednej branży. Do 2018 roku trzykrotnie, czyli do ponad 450, wzrośnie liczba chmur, określanych mianem Industry Collaborative Cloud (ICC). Są to platformy chmurowe, na których przedsiębiorstwa z tej samej branży mogą współpracować z myślą o realizacji wspólnych celów. Celem może być zwiększenie efektywności czy dostępu do informacji. Do końca 2018 roku liczba chmur w modelu ICC wzrośnie trzykrotnie, z 50 w roku 2016 do ponad 150. Do roku 2020 już ponad 80 proc. firm z listy Global 50 będzie dostarczała cyfrowe usługi za ich pośrednictwem.
7. W firmach powstaną dedykowane zespoły ds. cyfrowej transformacji. Do końca 2017 roku ponad 70 proc. przedsiębiorstw spośród 500 największych na świecie zatrudni zespoły wyspecjalizowane w cyfrowej transformacji i innowacjach. Do 2018 r. prognozowany jest 2-3 krotny wzrost zatrudnienia w działach programistycznych. Sukces transformacji będzie zależał od nabywanych przez organizacje kompetencji i doświadczeń. Firmy będą więc budować odpowiednie zespoły wewnętrzne, ale z drugiej będą musiały nauczyć się współpracy i korzystania z zewnętrznych zasobów programistycznych.
8. Wzrost przychodów ze sprzedaży usług a nie sprzętu. W 2020 roku 70 proc. przychodów dostawców usług przetwarzania danych w chmurze będzie generowane przez partnerów handlowych i innych pośredników. Do roku 2018 co najmniej jedna trzecia obrotów największych partnerów handlowych, generowanych do tej pory ze sprzedaży sprzętu, będzie pochodziła ze sprzedaży lub pośrednictwa w sprzedaży usług opartych o technologię chmury. Oznacza to konieczność inwestycji w rozwój oferty oraz kompetencji w zakresie obsługi klienta. Firmy będą musiały skupić się bardziej na proponowaniu klientowi usługi a nie konkretnego produktu.
9. Spełnienie cyfrowych standardów warunkiem sprostania konkurencji i utrzymania obecności na rynku. W 2020 r. wydajność i efektywność działania firm będzie mierzona za pomocą narzędzi zorientowanych na cyfrową transformację. Spełnienie nowych standardów będzie wymagało zwiększenia wydajności biznesowej od 20 do 100 proc. Funkcjonowanie i konkurowanie w gospodarce cyfrowej będzie wymagało myślenia cyfrowymi kategoriami. Decydenci będą musieli rozumieć najważniejsze technologie informatyczne i posiadać doświadczenie w zarządzaniu nimi. Warunki te nie będą łatwe do spełnienia, przez co wiele firm upadnie. Prognozy zakładają, że co najmniej jedna trzecia spośród 20 największych firm nie spełni tych oczekiwań. Zaostrzy to konkurencję i spowoduje duże zmiany na rynku.
10. Integracja technologii cyfrowych z ludzkim ciałem. Do 2020 r. jedna trzecia przedsiębiorstw działających w obszarze zdrowia i nauk biologicznych oraz produktów konsumpcyjnych zacznie tworzyć pierwszą falę usług i rozwiązań łączących technologie Trzeciej Platformy z ludzkim ciałem. W okolicach 2025 r. technologie „rozszerzonego człowieka” staną się powszechnie dostępne. Będzie postępować integracja technologii cyfrowych z biosystemem człowieka oraz ich wykorzystywanie do inżynierii systemów biologicznych na poziomie komórkowym i subkomórkowym. Prawdopodobnie pojawią się pierwsze firmy nowej ery będące odpowiednikami Amazona, Google’a i Facebooka.
Artykuł Cyfrowa transformacja: dostosuj się albo giń pochodzi z serwisu CRN.
]]>Artykuł Esri rozwija sieć partnerską w Polsce pochodzi z serwisu CRN.
]]>– Idziemy w kierunku oferty rozwiązań hybrydowych wykorzystujących możliwości chmury – Jacek Sobotka, dyrektor ds. współpracy z partnerami w Esri. – W ten sposób aplikacje zyskują lekkość i mogą być dostępne na różnych urządzeniach. Nie wymagają wsparcia analityków, czy specjalistów IT, ponieważ są dostosowane do potrzeb i komfortu menedżerów z dowolnych obszarów działania firmy.
Na świecie firma Esri ma ponad 1800 partnerów na trzech poziomach – srebrnym, złotym i platynowym. W Polsce do programu ESRI Inc. przystąpiło 25 spółek o srebrnym statusie partnerstwa. Wśród nich znajdują się wyspecjalizowane firmy w obszarze zastosowań GIS, m.in. takie jak Apator, GIS-Expert, GISPartner, SmallGIS, czy SunTech oraz najwięksi integratorzy systemów informatycznych, tacy jak Asseco Poland, Comarch, Qumak, czy Sygnity.
– Przystąpienie do Esri Partner Network na podstawowym poziomie wiąże się przede wszystkim z przedstawieniem pomysłu na wykorzystanie naszych technologii w budowie rozwiązań dla klientów – mówi Jacek Sobotka. – Oczywiście istotne są również kompetencje związane z obsługą technologii i dotychczasowe referencje wdrożeniowe, ale z pewnością kluczowa jest biznesowa perspektywa rozwoju aplikacji opartych na technologii Esri .
W ramach współpracy Partnerzy otrzymują dostęp do platformy desktopowej i chmurowej systemu ArcGIS wraz ze specjalizowanymi rozwiązaniami. Celem jest m.in. zapewnienie możliwości testowania rozwijanego oprogramowania. Mają też do wykorzystania trzy bezpłatne szkolenia oraz szereg zniżek na specjalizowane warsztaty. Esri proponuje także udział w programie nieodpłatnego podnoszenia kwalifikacji i prowadzenie wspólnych akcji marketingowych i handlowych.
Producent stworzył przestrzeń on-line, z zasobami wiedzy, prezentacji produktowych i handlowych. Z myślą o firmach współpracujących powstał też portal Esri Marketplace – platforma handlowa dla firm, które mogą tworzyć rozwiązania i sprzedawać gotowe do wdrożenia aplikacje.
Zdaniem firmy analitycznej Gartner do roku 2020 wyraźnie wzrośnie odsetek firm, które będą uwzględniały analizę danych przestrzennych w swoich działaniach biznesowych zgodnie z założeniami strategii GLI (geospatial and location intelligence). Głównym czynnikiem mającym wpływ na szersze wykorzystanie czynnika lokalizacji jest dynamiczny rozwój cyfrowego biznesu i rosnąca liczba urządzeń podłączonych do globalnej sieci, która zdaniem analityków wyniesie 25 mld. w roku 2020.
Artykuł Esri rozwija sieć partnerską w Polsce pochodzi z serwisu CRN.
]]>Artykuł Big Data na XXI Forum Teleinformatyki pochodzi z serwisu CRN.
]]>Podczas inauguracyjnego
wystąpienia Jurand Drop, podsekretarz stanu w Ministerstwie Administracji
i Cyfryzacji, przypomniał, że cyfryzacja państwa ma służyć obywatelom. Aby
przebiegała sprawnie, należy zadbać o niezbędne regulacje prawne,
inwestować w sieci szerokopasmowe, rozwijać cyfrowe kompetencje
mieszkańców kraju oraz przeznaczone dla nich e-usługi. Kluczowe jest także
usuwanie wszelkich barier prawnych. Rolą MAiC ma być
koordynowanie złożonego procesu budowy e-administracji, który odbywa się
w poszczególnych resortach. Szczegółowe zadania związane z tworzeniem
e-administracji określa „Program Zintegrowanej Informatyzacji Państwa do 2020
r”.. Ma on zapewnić „interoperacyjność istniejących i przyszłych systemów
teleinformatycznych administracji publicznej”.
Jacek Kapica, podsekretarz stanu w Ministerstwie
Finansów, przyznał, że po pierwszych latach doświadczeń związanych
z wdrożeniem e-usług dla obywateli resort diametralnie zmienił podejście
do sprawy. Rozpoczął współpracę z zewnętrznym doradcą, którym
w 2009 r. stało się PwC, i podzielił projekt transformacji podatkowej
na część biznesową oraz wykonawczą.
– To jeden z niewielu
przypadków w segmencie administracji, gdzie biznes był najważniejszym
najważniejszą wytyczną w trakcie przygotowywania planu działania,
a nie sama informatyka – powiedział Marcin Sidelnik, przedstawiciel
PwC.
Doradca przedstawił przy okazji wyniki badania dotyczącego
składania zeznań podatkowych przez Internet. Zostało przeprowadzone w tym
roku, równo po pięciu latach od poprzedniego. Wynika z niego, że obecnie
31 proc. podatników składa PIT-y za pośrednictwem systemu e-Deklaracje.
W roku 2010 robił tak co piąty podatnik. Z grupy osób, które
w 2010 r. użyły tej platformy do rozliczenia z urzędem
skarbowym, czynność tę zamierzało powtórzyć 84 proc. badanych. W 2015 r.
z systemu ponownie skorzystałoby aż 98,8 proc. użytkowników.
Wszelkie e-systemy – czy to wykorzystywane przez
państwo w kontaktach z obywatelem czy przez biznes w kontaktach
z klientem – służą definitywnie temu, aby ten ostatni mógł
w łatwy sposób przekazać dane, zazwyczaj w dużym stopniu dotyczące
jego osoby lub bliskich. Można założyć (choć to spore uproszczenie), że do tej
pory obywatele przekazywali dane świadomie – poproszeni o nie lub
zobowiązani do tego rozmaitymi procedurami. Interoperacyjność systemów e-administracji,
która się realizuje się na naszych oczach, rozwój systemów M2M czy Internet of
Things oraz waga, jaką do pozyskiwania rozmaitych informacji o klientach
przykładają prywatne firmy – powoduje konieczność wprowadzenia kolejnych
regulacji prawnych związanych z ochroną prywatności obywateli. O jej
zagrożeniu w kontekście wielkich zbiorów danych mówiła dr Edyta
Bielak-Jomaa, Generalny Inspektor Ochrony Danych Osobowych. Zwracała uwagę, że
regulacje prawne muszą być tak skonstruowane, aby z jednej strony dawać
poczucie bezpieczeństwa ludziom, z drugiej – nie hamować rozwoju
narzędzi informatycznych.
Inspektor podkreśliła możliwe niebezpieczeństwa związane
z profilowaniem predykcyjnym, które szczególnie interesuje ustawodawców
unijnych i powinno być wzięte pod uwagę – w kontekście interesów
obywateli – również w Polsce. Prognozowanie na podstawie aktualnych
danych z perspektywy GIODO utrudnia ochronę prywatności i stwarza
zagrożenie dla konkretnych osób fizycznych.
– Jeśli w takim prognozowaniu
zbyt mocno oprzemy się jedynie na informacjach tkwiących w zasobach
danych, może dojść do sytuacji karania ludzi nie tylko za indywidualne postępowane,
ale za określone skłonności – mówiła Edyta Bielak-Jomaa. – Dlatego
potrzebne są ramy prawne chroniące jednostki przed zbyt daleko idącymi działaniami,
którym początek dają możliwości przewidywania na podstawie wielkich zbiorów
danych.
Artykuł Big Data na XXI Forum Teleinformatyki pochodzi z serwisu CRN.
]]>Artykuł Zapotrzebowanie na usługi rośnie pochodzi z serwisu CRN.
]]>W październiku 2011 roku w warszawskim
Centrum EXPO XXI resellerzy, integratorzy, managerowie działów informatycznych
w przedsiębiorstwach mieli okazję dowiedzieć się, jak Microsoft,
w reakcji na najnowsze trendy na rynku IT, rozwija swoje produkty
i usługi. W tegorocznej, szóstej już edycji Microsoft Technology
Summit wzięło udział ok. 3 tys. osób, a prelekcje przygotowało
ponad 50 specjalistów.
Na sesji generalnej zgromadzonych powitał Dariusz Piotrowski,
dyrektor techniczny polskiego biura Microsoftu. Przypomniał, że przez dwa
ostatnie lata działania producenta skupiały się m.in. na tym, aby
oprogramowanie i sposób jego użytkowania, czy to w telefonach
komórkowych, komputerach, czy w systemie tworzącym centrum domowej
rozrywki, był podobny. Obecnie należy się skoncentrować na usługach, jakie
dzięki software’owi Microsoftu można świadczyć. – Oprogramowanie, które
oferujemy, ma podstawowy cel – stworzyć usługę dla klienta końcowego –
powiedział Piotrowski. – Od prostej aplikacji, którą użytkownicy zainstalują
w telefonie, i która pomoże im uporządkować osobiste, ważne dla nich
dane, po zaawansowane rozwiązania, np. Business Intelligence. Manager
zaznaczył, że klienci już korzystają z rozwiązań cloudcomputingowych,
aplikacji do urządzeń mobilnych, platform komunikacyjnych potrzebnych do
organizowania pracy w grupach i narzędzi analitycznych
umożliwiających uporządkowanie i efektywne wykorzystywanie zgromadzonych
informacji. Są to segmenty rynku, które Microsoft uznaje za perspektywiczne,
i na nich partnerzy powinni się skupić, tworząc ofertę usługową
na platformach Azure, Windows Phone, Windows InTune, SQL Server 2012.
Gościem specjalnym głównej sesji był Miha Kralj, dyrektor ds.
nowych technologii w Microsoft Redmond. Podczas prezentacji przedstawił
m.in. kierunki rozwoju technologii i jej wpływ na życie ludzi. Opowiadał
o sieciach społecznościowych, mikroelektronice i wpływie technologii cyfrowych
na styl życia. Według niego ważnymi dzisiaj hasłami są: chmura, społeczność,
geolokalizacja, inteligentne aplikacje i RFID.
Wystąpienia innych
prelegentów dotyczyły następujących tematów: chmura publiczna (słuchający mogli
się zapoznać z gotowymi do zastosowania w przedsiębiorstwie usługami
zwizanymi z oprogramowaniem, udostępnianymi w ramach Microsoft Online
Services, i uzupełnić swą wiedzę o platformie Windows Azure,
która pozwala programistom rozbudowywać istniejące, zainstalowane lokalnie aplikacje
o funkcje chmury oraz tworzyć nowe), chmura prywatna (zaprezentowano, jak
skonfigurować chmurę prywatną i zarządzać nią we własnej infrastrukturze
oraz jak taka chmura współpracuje z elementami chmury publicznej),
bezpieczeństwo (możliwości rozwiązań Microsoftu w tym zakresie), Windows
Client (omówiono m.in. Windows InTune, nowości w rodzinie produktów
Windows), tworzenie aplikacji konsumenckich & User Experience
i aplikacji Web, platforma aplikacyjna Microsoft (w skład której
wchodzą m.in. SQL Server oraz rozwiązania klasy Business Intelligence), Office
System 2010 – w środowisku firmowym i w chmurze. Twórcy
paneli biznesowych mieli za zadanie przedstawić słuchaczom różne możliwości
współpracy z Microsoftem. W strefie Ask The Expert specjaliści
z zakresu teleinformatyki odpowiadali na pytania uczestników konferencji.
Wspólny projekt
Microsoftu i ABC Daty
1 listopada dystrybutor uruchomi CloudLink – internetowy
system sprzedaży usług i produktów wykorzystujących platformę Windows
Azure. ABC Data zapewnia, że to pierwsze tego typu przedsięwzięcie
w naszej części Europy, realizowane przez Microsoft wspólnie
z dystrybutorem. System służy do prezentacji i sprzedaży
oprogramowania stworzonego na platformie Windows Azure. Dostęp do produktów będzie
oferowany poprzez dwa systemy B2B: InterLink, który ma blisko 54 tys.
użytkowników (w tym 25 tys. zarejestrowanych dilerów i prawie
9 tys. resellerów), oraz BiznesLink – przeznaczony dla resellerów ABC
Daty i ich klientów końcowych (ponad 21 tys. użytkowników, w tym
ponad 12 tys. firm i instytucji). Możliwe jest także wdrożenie systemu
poza Polską oraz sprzedaż B2C.
Według ABC Daty partner, który
przystąpi do projektu CloudLink, dodatkowo zyska – oprócz możliwości
kategoryzacji i prezentacji produktów, umieszczania opisów, wersji
demonstracyjnych itp. – m.in. dostęp testowy do modułu CloudLink, pomoc
w tworzeniu opisów produktów, możliwość dotarcia do klientów dystrybutora
oraz wsparcie marketingowe.
Artykuł Zapotrzebowanie na usługi rośnie pochodzi z serwisu CRN.
]]>