Artykuł Nowe możliwości na brzegu sieci pochodzi z serwisu CRN.
]]>W rezultacie tradycyjne, scentralizowane architektury dostawców usług nie są w stanie sprostać obecnym potrzebom. Tym bardziej, że należy się spodziewać nowej fali aplikacji, które jeszcze bardziej obciążą brzeg sieci, przede wszystkim bazujących na Internecie rzeczy, ale także wykorzystujących wirtualną i rozszerzoną rzeczywistość. Ich wdrożenia spowodują konieczność przeniesienia przetwarzania i magazynowania danych bliżej użytkowników i ich urządzeń.
Wspomniany Gartner szacował dwa lata temu, że ok. 10 proc. danych generowanych przez przedsiębiorstwa jest tworzone i przetwarzane poza tradycyjnym, scentralizowanym centrum danych lub chmurą. Analitycy przewidywali jednak duże zmiany – do 2025 r. odsetek ten miałby sięgnąć najpierw 50 proc., a według późniejszej aktualizacji, nawet 75 proc.!
W tej sytuacji korzyści przyniesie decentralizacja mocy obliczeniowej i zbliżenie jej do miejsca, w którym dane są generowane – innymi słowy zastosowanie edge computingu. Możliwości tego modelu obejmują obsługę różnych procesów – od prostego filtrowania zdarzeń i danych, po złożone ich przetwarzanie. Edge computing, zwany również przetwarzaniem na krawędzi albo brzegu sieci, w pobliżu źródła danych, eliminuje konieczność przesyłania informacji do odległej chmury lub innych scentralizowanych systemów. Architektura edge computing umieszcza wydajne zasoby obliczeniowe, pamięci masowe i sieciowe jak najbliżej użytkowników i urządzeń końcowych.
– Dzięki ograniczeniu dystansu i czasu niezbędnego do wysłania danych do centralnych lokalizacji, można zwiększyć szybkość transportu informacji, zmniejszyć jego opóźnienia oraz poprawić wydajność urządzeń i aplikacji działających właśnie na krawędzi, w konkretnych miejscach – mówi Artur Czerwiński, dyrektor ds. technologii w Cisco.
Chociaż edge computing znajduje się obecnie na wczesnym etapie wdrażania, to rosnące znaczenie tego modelu jako elementu cyfrowej transformacji każe przypuszczać, że szybko znajdzie się w głównym nurcie. Według IDC do 2022 r. aż 40 proc. wdrożeń chmury w firmach będzie obejmować przetwarzanie brzegowe.
Krzysztof Krawczyk, IT Solutions Sales Manager Eastern Europe w Vertivie, zwraca uwagę, że obecnie także w codziennym życiu nie tolerujemy opóźnień. Gdy słuchamy muzyki lub oglądamy filmy, korzystając z platform streamingowych, oczekujemy ciągłości pracy, a nie „przerw na kawę”. Oznacza to, że przetwarzanie danych musi być zrealizowane jak najbliżej nas, aby opóźnienia były jak najmniejsze.
– Pamiętam, jak podczas zagranicznej podróży służbowej próbowałem obejrzeć film z nieistniejącej obecnie platformy streamingowej. Połączenie było regularnie przerywane, bo usługa nie miała własnej infrastruktury w kraju, w którym chciałem z niej skorzystać. Szybko przełączyłem się na najpopularniejszą alternatywę – wspomina Krzysztof Krawczyk.
Wiele urządzeń końcowych potrzebuje infrastruktury znajdującej się blisko nich. Należą do nich chociażby czytniki kodów kreskowych i kasy samoobsługowe w sklepach wielkopowierzchniowych. Dobrze jest zarządzać informacją bliżej jej źródła, a tylko najistotniejsze dane przesyłać do miejsca, gdzie wymagane jest ich przetwarzanie oraz archiwizacja.
– Nie bez znaczenia jest też szybsze działanie rozwiązania bazującego na architekturze edge computingu, gdy źródło danych znajduje się w zasięgu 100 merów, a nie 200 kilometrów. Edge computing umożliwia też lepsze zarządzanie bezpieczeństwem informacji – mówi Łukasz Borkowski, Technical Country Channel Sales BI & Infrastructure w Lenovo.
Z założenia edge computing ma być stosowany wszędzie tam, gdzie wymagany jest natychmiastowy czas reakcji i brak opóźnień w przesyle danych. W pierwszym rzędzie chodzi o sytuacje, w których szybkość transferu danych decyduje o bezpieczeństwie, a zatem w przypadku pojazdów autonomicznych, placówek ochrony zdrowia czy zakładów przemysłowych (realizujących wizję Przemysłu 4.0). Edge computing sprawdza się też w aplikacjach, które przesyłają ogromne ilości danych, czyli wymagają dużych przepustowości.
Krzysztof Krawczyk
IT Solutions Sales Manager Eastern Europe, Vertiv
W środowisku edge często mamy do czynienia z ograniczoną przestrzenią i w rezultacie z pojedynczą szafą rackową ze sprzętem IT. Oznacza to, że nie możemy polegać na centralnym systemie zasilania gwarantowanego lub klimatyzacji precyzyjnej przeznaczonej dla całego pomieszczenia. Zamiast tego musimy zapewnić system UPS i rozwiązanie chłodzące albo w samej szafie, albo tuż obok niej (klimatyzator rzędowy). Mała przestrzeń oznacza większe trudności z odprowadzeniem ciepła i trzeba szukać takich sposobów, które rozwiążą ten problem. Ułatwić zadanie może jednostka chłodząca sprzęt IT znajdująca się bezpośrednio w szafie rackowej.
Artur Czerwiński
dyrektor ds. technologii, Cisco
Ważne jest zrozumienie, czym jest edge computing, a czym tak zwany fog computing, i jak można przełożyć tę wiedzę na realizację konkretnych scenariuszy biznesowych. Edge computing to przetwarzanie danych na krawędzi sieci, w pobliżu źródła danych, bez konieczności przesyłania informacji do zdalnej chmury lub innych scentralizowanych systemów do przetwarzania informacji. Fog computing jest natomiast standardem określającym, jak powinno działać przetwarzanie na krawędzi i umożliwiającym tworzenie powtarzalnych struktur w ramach koncepcji edge computingu. Dzięki temu przedsiębiorstwa mogą relokować obliczenia ze scentralizowanych systemów lub chmur i uzyskiwać większą skalowalność i wydajność.
Według Schneider Electric czynnikiem, który decyduje o potrzebie wykorzystania edge computingu zamiast chmury publicznej, bywa także prawo. Chodzi zwłaszcza o silnie regulowane branże (m.in. bankowość), w których dane często nie mogą być przechowywane poza granicami określonego państwa, chociażby w chmurze. W Europie zapotrzebowanie na edge computing może rosnąć także ze względu na RODO. Wymaganą kontrolę nad przetwarzaniem, przechowywaniem i przekazywaniem danych osobowych łatwiej zachować przy użyciu infrastruktury lokalnej, w tym brzegowej.
Trzeba przy tym podkreślić, że edge computing nie stanowi konkurencji dla cloud computingu, tylko uzupełnienie chmury, zasadniczo zwiększające efektywność całego, złożonego środowiska. Można się wręcz spodziewać, że edge computing stanie się atrakcyjny dla dostawców usług w chmurze, gdyż oferuje im możliwość lepszej dystrybucji pamięci masowej i mocy obliczeniowej, a w rezultacie obsługę usług wymagających małego opóźnienia, wyższą dostępność systemów oraz zmniejszenie obciążenia ich wielkich centrów danych. Przetwarzanie brzegowe zapewni obustronne korzyści dostawcom chmury i operatorom wdrażającym edge computing – ci drudzy stworzą platformy zdolne do świadczenia wielu usług na bazie infrastruktury brzegowej. Z kolei klienci końcowi dzięki integracji edge computingu i chmury zyskają wgląd w stan i miesce przechowywania wszystkich danych istotnych dla działania ich aplikacji i usług.
– Korzyści dotyczą całego ekosystemu dostawców aplikacji i usług, operatorów sieci, przedsiębiorstw i klientów indywidualnych. Możliwe jest stworzenie modelu B2B, w którym operator tworzy ofertę usługową dla innych podmiotów. Może zatem opracować usługi dla dostawców chmury publicznej w oparciu o dzierżawę krawędzi zapewniającej niskie opóźnienia w sieci – tłumaczy Artur Czerwiński.
Zdaniem integratora
Jarosław Rowiński, kierownik Zespołu Usług i Rozwiązań Sieciowych, Atende
Edge computing jest zjawiskiem nowym, ponieważ pojawił się w wyniku rozwoju chmury publicznej. Wcześniej klienci skupiali swoje IT w centrach danych. Firmy mogły mieć jedno data center albo kilka, co zazwyczaj miało miejsce, gdy były działającymi globalnie korporacjami. Tam też były uruchamiane aplikacje. Jeśli teraz przedsiębiorstwo wybiera chmurę, to może się okazać, że aplikacja znajdzie się bardzo daleko od niego. Dla niektórych aplikacji nie ma to znaczenia, ale z tymi, które wymagają bardzo krótkiego czasu dostępu, będzie już problem. A zastosowań, w których liczy się każda milisekunda, będzie przybywać, chociażby z powszechnieniem się technologii 5G. Rozwiązaniem jest właśnie edge computing, czyli umieszczenie infrastruktury obsługującej aplikacje jak najbliżej użytkownika. Tego na pewno będzie potrzebować rozwijająca się branża samochodów autonomicznych, a z bliższych nam zastosowań – całe spektrum automatyki przemysłowej i Internetu rzeczy, projekty z obszaru inteligentnych budynków i miast. Także przetwarzanie mowy, środowiska Content Delivery Networks, nowe aplikacje medyczne i oczywiście gry komputerowe. Widzimy już pewne zainteresowanie klientów – co oczywiste – głównie tych używających i tworzących aplikacje wrażliwe na opóźnienia. Jeśli w tym momencie nie ma ich jeszcze dużo, to w ciągu kilku lat powinno się to zmienić. Na zmianę sposobu myślenia może nawet wpłynąć obecna sytuacja z koronawirusem, w której coraz więcej rzeczy dzieje się poza siedzibą firm. Ponieważ edge computing zakłada, że infrastruktura znajduje się blisko użytkownika i urządzeń końcowych, to będzie specjalnie projektowana pod kątem umieszczania jej w takich właśnie miejscach.
Wygenerowanie wartości biznesowej na podstawie danych brzegowych wymaga umiejętności ich wykorzystywania, analizy i uzyskiwania wglądu bez względu na to, gdzie się znajdują. Ma to się przy tym odbywać szybko, ekonomicznie i bezpiecznie. Możliwość agregowania, analizowania i selekcjonowania danych w ramach edge computingu pomaga firmie szybciej się rozwijać, podejmować lepsze decyzje i – ostatecznie – zdobywać więcej klientów. Kluczem jest spójne podejście do wdrażania aplikacji działających na bazie zdalnej infrastruktury i konsekwentne zarządzanie danymi w całym obszarze ich powstawania.
Stanisław Mielnicki, Server Engineer w Dell Technologies, zwraca uwagę, że liderzy technologiczni starający się za pomocą edge computingu uzyskać przewagę rynkową, muszą dobrze wiedzieć, w jakim kierunku podążają. W realizacji założonych celów firmy napotykają bowiem na wiele ograniczeń, które mają wpływ na to, jakie rozwiązanie informatyczne okaże się w danym przypadku najbardziej odpowiednie.
Wyzwania, jakie infrastrukturze stawia edge computing, dotyczą kilku obszarów. Po pierwsze komunikacji, w kontekście faktu, że ze względu na lokalizację, takie parametry, jak przepustowość i jakość połączeń w sieci są ograniczone. Kolejna kwestia dotyczy środowiska, a więc miejsc wdrażania, które są otwarte, a tym samym podatne na działanie żywiołów, zagrożone pyłem i tym podobnymi szkodliwymi czynnikami. Ważną kwestią jest ponadto umiejscowienie sprzętu, który musi działać w ograniczonej przestrzeni, jak też jego moc, ze względu na nieoptymalne warunki dla zasilania i chłodzenia. Niełatwe jest zarządzanie takim projektem, gdyż wdrożenia są przeprowadzane z dala od wykwalifikowanego personelu IT. Wreszcie pozostaje sprawa bezpieczeństwa, która jest kłopotliwa, jako że dział IT musi kontrolować i monitorować bezpieczeństwo poza centrum danych.
– Dostawcy realizujący ideę edge computingu starają się, by klienci byli w stanie pokonać te ograniczenia, korzystając z produktów zaprojektowanych specjalnie z myślą o krawędzi – mówi przedstawiciel Dell Technologies.
Małe opóźnienia
Ze swej natury infrastruktura edge znajduje się dużo bliżej urządzenia IoT niż szkielet sieci czy chmura. Oznacza to znacznie krótszą drogę danych w obie strony i wykorzystanie lokalnej mocy przetwarzania, dzięki czemu mogą być obsługiwane procesy wrażliwe na opóźnienia.
Wydajniejsze zarządzanie danymi
Przetwarzanie danych na brzegu ułatwia zarządzanie jakością danych – wydajniejsze staje się ich filtrowanie i ustalanie priorytetów. W rezultacie te dane, które muszą być przekazane do chmury w celu ich dalszego przetwarzania i analizy, są już oczyszczone.
Dostęp do analityki i sztucznej inteligencji
Można łączyć moc obliczeniową i zdolność do gromadzenia danych na brzegu sieci
w celu wdrażania analityki i elementów sztucznej inteligencji. Chodzi o te zastosowania, które wymagają bardzo krótkich czasów reakcji i przetwarzania danych w czasie rzeczywistym, więc przesyłanie ich do scentralizowanych systemów byłoby niemożliwe.
Skalowalność
Ponieważ model zakłada zdecentralizowane przetwarzanie, to mniejsze jest obciążenie sieci. Dlatego skalowanie wdrożeń IoT powinno mieć mniejszy na nią wpływ, szczególnie jeśli aplikacje i warstwa sterowania są umieszczone na brzegu razem z danymi.
Odporność na awarie
Edge computing zapewnia więcej dróg komunikacji niż model scentralizowany. Rozproszenie sprawia, że wzrasta odporność na awarie w przesyłaniu danych. Jeśli w jednym miejscu nastąpi awaria, wciąż istnieją inne zasoby, które zapewniają ciągłą pracę.
Dłuższy czas pracy urządzeń IoT na bateriach
Jeśli z powodu mniejszych opóźnień zmniejsza się wykorzystanie kanałów komunikacji, to zasilane bateriami urządzenia IoT będą w stanie dłużej pracować bez ich wymiany lub ponownego ładowania.
Na rynku pojawiać się będzie coraz więcej urządzeń do przetwarzania brzegowego – produktów sieciowych, pamięciowych i obliczeniowych. Te wywodzące się z tradycyjnej infrastruktury dla centrum danych i chmury wymagają (podczas wdrożenia, integracji i utrzymania) podobnego wsparcia integratora i działu IT klienta. Dostawcy zaczynają także oferować infrastrukturę specjalnie zaprojektowaną i skonfigurowaną z myślą o edge computingu, w kompaktowych obudowach i z obsługą, która jest w dużej mierze zautomatyzowana. Powstają też procesory, które lepiej znoszą trudne warunki środowiskowe, w tym wysokie temperatury i wibracje.
Jak twierdzi Paweł Borkowski, rozwiązaniem, które ułatwi przetwarzanie danych we wdrożeniach edge computingu może być specjalnie pod tym kątem zaprojektowany serwer, którego właściwości zapewniają jego instalację poza typowym data center – w najróżniejszych miejscach: na suficie, ścianie czy nawet tylnej ściance telewizora. Urządzenie może mieć wbudowane funkcje komunikacyjne (karty WiFi i LTE) oraz pracować w trudnych warunkach – bez chłodzenia i w zapylonym środowisku. W jego niewielkiej obudowie da się zmieścić całkiem spore zasoby obliczeniowe i pamięciowe.
Z kolei Vertiv zwraca uwagę, że produkty edge obsługujące wdrożenia 5G są inne niż produkty wspierające ochronę zdrowia, które z kolei różnią się od tych dla handlu detalicznego, rozwiązań dla instytucji finansowych czy infrastruktury do zastosowań przemysłowych. Jednakże wszystkie nabierają krytycznego znaczenia, więc muszą sprostać takim samym wymaganiom w zakresie infrastruktury IT i wsparcia, jak tradycyjne centra danych. Różnica polega na tym, że są rozproszone i zazwyczaj nieobsługiwane przez lokalny personel IT. Dlatego firmy wdrażają coraz bardziej inteligentne systemy oraz infrastrukturę umożliwiającą administratorom zdalny wgląd w urządzenia i procesy. Powstaje w ten sposób bardziej niezawodny i wydajny brzeg sieci o możliwościach autonaprawy, a więc wymagający mniej aktywnego zarządzania.
Zdaniem specjalistów Schneider Electric bardzo ważne jest łatwe wpasowanie takich produktów w istniejące instalacje. Optymalną propozycją są rozwiązania umożliwiające skalowalną, modularną instalację – także w pomieszczeniach, które nie były pomyślane jako serwerownie, np. w biurach czy halach produkcyjnych. Łatwość wkomponowania ich w już działającą architekturę sieciową, nawet przez osoby, które nie są specjalistami, należy do najczęstszych postulatów formułowanych przez klientów myślących o wdrożeniach edge computingu.
Rozwiązaniem, które od jakiegoś czasu dobrze wpisuje się w wymagania struktury przetwarzania brzegowego są miniaturowe centra danych – małe, kompaktowe szafy, które mieszczą w sobie kluczowe podzespoły i są możliwe do zamontowania nawet na ścianie. Co istotne, takie mikrocentra danych, mimo małych gabarytów, mają zaimplementowane pełne wyposażenie infrastrukturalne – zasilanie gwarantowane, monitoring i mechaniczne zabezpieczenie dostępu.
Artykuł Nowe możliwości na brzegu sieci pochodzi z serwisu CRN.
]]>Artykuł Internet (coraz bardziej do) rzeczy pochodzi z serwisu CRN.
]]>– Robotyzacja, automatyzacja procesów, Internet rzeczy, zaawansowana analityka oraz sztuczna inteligencja są z całą pewnością kluczowe dla rozwoju naszych kompetencji – potwierdza Patryk Borzęcki, dyrektor handlowy ds. rozwiązań biznesowych w S&T.
Jego zdaniem postęp w każdej z tych dziedzin skutkuje pojawieniem się wielu innowacyjnych rozwiązań, które trzeba szybko dostosowywać do potrzeb rynku, pozostawiając klientom wybór narzędzi najlepiej odpowiadających branży, w jakiej działają. Stopniowego wdrażania elementów sztucznej inteligencji warszawski integrator spodziewa się w obszarze systemów ERP, które w powiązaniu z analityką Big Data zoptymalizują wiele operacji i obniżą koszty w firmach klientów.
W kontekście IoT zwykle mówi się o miliardach połączonych z siecią urządzeń. Przykładowo Gartner prognozuje, że w 2019 r. na świecie będzie funkcjonować już 14,2 mld skomunikowanych ze sobą „rzeczy”, a w 2021 r. ma być ich 25 mld. Chociaż taka wizja musi robić wrażenie, dotąd z wykorzystaniem potencjału Internetu rzeczy i inteligentnych urządzeń nie jest najlepiej. Z każdym miesiącem można jednak zaobserwować coraz więcej dowodów, że IoT nadaje się do wdrażania tu i teraz, a dostawcy – metodą przejęć, tworzenia nowych platform i przekształcania kanału sprzedaży – dostosowują swoje strategie do oferowania tego rodzaju rozwiązań.
Chyba najbardziej upowszechniającym się obecnie zastosowaniem dla IoT jest utrzymanie predykcyjne, które ma zapobiegać awariom systemów. W zamyśle idea jest prosta, polega na wykorzystaniu różnego rodzaju sensorów (przykładowo wibracji lub zużycia) do mierzenia stanu oraz wydajności urządzeń i instalacji. Czujniki przekazują dane do aplikacji działającej w urządzeniu brzegowym lub na serwerze w centrum danych albo w chmurze. Następnie informacje są analizowane z wykorzystaniem uczenia maszynowego. Dzięki skorelowaniu danych uzyskiwanych w czasie rzeczywistym z danymi historycznymi ryzyko wystąpienia problemów jest oceniane bez udziału człowieka. To jednak, co w opisie wydaje się nieskomplikowane, wymaga przemyślanej i skutecznej integracji systemowej.
Wojciech Janusz, Systems Engineer z Dell EMC, zwraca uwagę, że IoT jest technologią idealną dla firm z obszaru energetyki i ciepłownictwa. Branże te od lat korzystają z specjalistycznych sieci zarządzających oraz monitorujących (SCADA) i powinny być najlepiej przygotowane do wprowadzenia rozwiązań Internetu rzeczy. Podobnie jak w przypadku innych projektów IT, aby nowe narzędzia zostały wdrożone, powinny rozwiązywać konkretne problemy biznesowe. Dlatego pierwsze wdrożenia IoT wcale nie dotyczą sieci przesyłowych, tylko zagadnień pobocznych, takich jak bezpieczeństwo lub podniesienie jakości usług.
– Rozwiązania IoT sprawdzają się w rozdzielniach lub stacjach przemysłowych oraz u użytkowników końcowych, u których instaluje się inteligentne liczniki prądu, wody lub gazu – twierdzi specjalista z Dell EMC.
Zarządzanie flotą pojazdów (w tym komunikacji publicznej) to kolejny przykład wykorzystania sieci IoT. Dzięki zastosowaniu lokalizatora GPS i danych wysyłanych przez sieć komórkową do centrali łatwiej zarządzać dużą liczbą przemieszczających się aut. Informacje te mogą zawierać dane z czujników montowanych w samochodach, pokazywać obroty silnika, zużycie i temperaturę paliwa, napięcie akumulatora, ciśnienie w kolektorze i zawczasu ostrzegać o potencjalnych problemach z utrzymaniem pojazdu, co umożliwia optymalizację wykorzystania floty.
W przypadku IoT przeznaczonego dla samochodów, z uwagi na ograniczony dostęp pojazdów do sieci, popularne staje się wykorzystanie Edge computingu. Można stosować urządzenia typu gateway, przygotowane i certyfikowane do pracy w samochodach (również ciężarowych), ułatwiające zbieranie, wstępne przetwarzanie i przesyłanie wszystkich informacji związanych z pojazdem oraz przewożonym ładunkiem. Kontrola warunków, w jakich przewożona jest przykładowo żywność, staje się kluczowa, ponieważ znacząco ogranicza straty.
– Tego typu systemy, w połączeniu z zaawansowaną analityką oraz często przy użyciu sztucznej inteligencji, zapewniają wczesne diagnozowanie awarii lub nawet zapobieganie nim – mówi Wojciech Janusz.
IoT to dla administracji wielka szansa na optymalizację kosztów dostarczania usług miejskich w ramach koncepcji smart city. Ważne, by z „inteligencji”, wprowadzanej najpierw wycinkowo (np. w celu usprawnienia transportu i komunikacji publicznej, gospodarki odpadami, podnoszenia poziomu bezpieczeństwa publicznego lub optymalizacji zużycia energii w mieście), ostatecznie tworzyć systemy skomunikowane ze sobą i umożliwiające sprawne zarządzanie lokalną infrastrukturą.
Nową dziedziną, w której firmy zaczynają stosować IoT, jest szeroko pojęte BHP. Od inteligentnych kasków, informujących o wypadkach lub nietypowej aktywności pracownika, aż po różne mobilne urządzenia monitorujące. Nowe rozwiązania sprawdzają się w trudnych lub niebezpiecznych warunkach i miejscach, takich jak strefy zagrożenia wybuchem.
Można gromadzić informacje z urządzeń typu wearables (smartwatchy, odpowiednio wyposażonych kasków, kurtek lub innych elementów ubioru), łączyć je z danymi środowiskowymi i na bieżąco monitorować kondycję pracowników i warunki ich pracy. Dzięki czujnikom stale śledzącym wskaźniki formy fizycznej (rytm serca, temperaturę ciała) łatwiejsze staje się zauważenie pracownika, u którego pojawia się nadmierny stres albo inne problemy, co ułatwia udzielić mu pomocy na czas.
Połączone z siecią urządzenia ubieralne umożliwiają osobom nadzorującym monitorowanie ruchów pracowników, analizowanie ich działań i rozpoznawanie ryzykownych czynności, które mogą doprowadzić do obrażeń. Czujniki i kamery o wysokiej rozdzielczości śledzą każdy krok człowieka wykonującego niebezpieczną pracę, wykrywają czynności wykonywane niestarannie, nieprzestrzeganie norm i przepisów bezpieczeństwa. Urządzenia IoT wysyłają te informacje do przełożonych w czasie rzeczywistym, dzięki czemu mogą oni na bieżąco korygować błędne działania i ryzykowne zachowania, ograniczając liczbę wypadków i urazów w miejscu pracy.
Internet rzeczy to obszar bardzo zróżnicowany technologicznie. Integrator decydujący się na rozwijanie związanej z IoT oferty nie może liczyć, że istnieje jeden uniwersalny standard, który można zastosować w każdym projekcie. Im bliżej brzegu sieci, tym więcej pojawia się protokołów, systemów operacyjnych, różnego rodzaju czujników i innego sprzętu oraz języków programowania.
Urządzenia IoT wykorzystują również rozmaite standardy komunikacji bezprzewodowej, których najczęściej nie stosuje się w typowych sieciach przeznaczonych do instalacji w biurach lub centrach danych (gdzie korzysta się przede wszystkim z Wi-Fi). Obok technologii takich jak ZigBee, Bluetooth i LoRA oraz nowszych standardów komórkowych NB-IOT i LTE-M funkcjonują niestandardowe protokoły komunikacyjne. To komplikuje wdrożenia.
Wielkie nadzieje są obecnie pokładane w sieci 5G. Ma zapewnić dużą szybkość transmisji oraz gęstość połączonych punktów końcowych – nawet 1 mln czujników na 1 km kw. Technologia 5G powinna więc sprawdzić się szczególnie w tych systemach, które wymagają niewielkich opóźnień i w których jest przesyłane dużo danych. Nie oznacza to jednak wcale, że warto wstrzymać się z projektami Internetu rzeczy do czasu uruchomienia sieci komórkowych kolejnej generacji. W większości zastosowań liczba przesyłanych informacji z połączonych z siecią „rzeczy” jest bowiem nieduża.
Kolejnym ogromnym problemem jest ochrona rozwiązań IoT. Wielu stosowanych w nich urządzeń końcowych nie projektowano pod kątem bezpieczeństwa. Często brakuje więc możliwości kontroli oprogramowania oraz sprzętu wykorzystywanego w tego rodzaju systemach. Ich zabezpieczenie stanowi niezmiennie ogromne wyzwanie dla przedsiębiorstw wdrażających te systemy, ale jednocześnie stanowi pole do popisu dla integratorów.
Artur Czerwiński, dyrektor ds. cyfryzacji w Cisco, wskazuje problemy organizacyjne wiążące się ze wprowadzaniem nowych technologii u klientów. Coraz częściej następuje nakładanie się zadań dotychczas realizowanych przez działy IT z wykonywanymi przez działy produkcyjne. Nie zawsze jest jasne, kto odpowiada za konkretny projekt rozwojowy. Bez dobrej współpracy pomiędzy działami firmy borykają się z problemami strukturalnymi. W rezultacie nawet znając swoje potrzeby, nie wszystkie przedsiębiorstwa potrafią dostosować się do koniecznych zmian.
Potwierdzają to wyniki badania Cisco, którym objęto 1845 menedżerów zarządzających projektami IoT. Okazuje się, że aż 60 proc. inicjatyw związanych z projektami IoT zakończyło się po fazie koncepcyjnej (proof of concept). Co ciekawe, spośród 40 proc. projektów, które przetrwały do etapu pilotażu, tylko 26 proc. zostało uznanych za sukces. Jednocześnie 61 proc. ankietowanych przyznało, że dopiero zaczynają się uczyć, jak systemy Internetu rzeczy mogą zmienić ich firmę.
Wojciech Janusz, Systems Engineer, Dell EMC
Niemal każdego dnia pojawiają się nowe zastosowania Internetu rzeczy. Jeśli jednak tego rodzaju rozwiązania mają się przyjąć w wymagających sektorach, np. energetyce i ciepłownictwie, powinny likwidować konkretne problemy w danej branży. Należy również pamiętać, że samo IoT, obojętnie czy są to informacje o jadącym samochodzie, czy czujniki ciśnienia w rurociągu, stanowi tylko element większego rozwiązania.
Dużo ważniejszym i trudniejszym zadaniem jest przetwarzanie zebranych danych i uzyskanie z nich informacji, które pomogą w dalszym rozwoju przedsiębiorstwa.
Aneta Żygadło, Country Manager, Optoma
Inteligentne miasta wymagają szybkiego przepływu informacji, a najłatwiej odbierane i zapamiętywane są te wykorzystujące bodźce wzrokowe. Treści o charakterze informacyjnym, reklamowym i edukacyjnym otaczają nas w przestrzeni publicznej i do wyróżnienia się w tej masie informacji potrzebny jest oryginalny przekaz. Gdy wielkość obrazu oraz elastyczność i kreatywność instalacji ma znaczenie, z pomocą przychodzą innowacyjne rozwiązania audiowizualne, w których dynamiczne treści wyświetlane są przez projektory, interaktywne wielkoformatowe monitory lub wyświetlacze LED.
Artur Czerwiński, dyrektor ds. cyfryzacji, Cisco
Nawet godzina przestoju linii produkcyjnej lub przerwy w dostawie energii oznacza ogromne straty, a co za tym idzie – negatywnie wpływa na relacje z klientami. Rolą integratorów jest sprawne przeprowadzenie wdrożenia, aby nie zakłócało działalności klienta. Przygotowując się do realizacji projektu, należy dokładnie określić cele i oczekiwania poszczególnych działów firmy, aby upewnić się, że wdrożenie rzeczywiście wpłynie na poprawę efektywności zachodzących w niej procesów. Niezwykle ważne są także szkolenia pracowników, gdyż w dużej mierze to oni odpowiadają za powodzenie projektu. Pamiętajmy, że poza danymi z czujników analizie poddawane są informacje wprowadzane przez osoby zatrudnione na poszczególnych odcinkach.
Mimo postępującej automatyzacji i systematycznego rozwoju sieci czujników IoT, wciąż pozostaje mnóstwo danych do zebrania ręcznie, w miejscu ich powstania. Dlatego realizacja wielu zadań (szczególnie tych wiążących się z pracą w terenie) wymaga od instytucji z sektora publicznego, np. tych odpowiedzialnych za środki transportu, energetykę i media użytkowe, wyposażenia pracowników w mobilne terminale. Handheldy i tablety typu rugged, czyli profesjonalne wzmocnione urządzenia przenośne, sprawdzają się w trudnych warunkach, umożliwiają szybki i precyzyjny odczyt danych z urządzeń pomiarowych oraz ich przetwarzanie. Tego typu terminale są odporne na upadki, spełniają wymogi klas szczelności, zawierają profesjonalne rozwiązania (np. skanery kodów) oraz zapewniają wielogodzinną ciągłą pracę i wieloletnie użytkowanie.
Chociaż do zbierania danych można użyć także tańszych urządzeń z rynku konsumenckiego, producenci specjalizowanych rozwiązań dla biznesu i instytucji publicznych dowodzą, że ich terminale oferują wiele funkcji, których nie ma sprzęt powszechnego użytku. Zwracają uwagę m.in. na dołączone oprogramowanie gwarantujące sprawną konfigurację dużej liczby wykorzystywanych urządzeń oraz rozwijane przez lata aplikacje, ułatwiające pracę podczas specyficznych zadań.
Wykorzystanie wzmocnionych handheldów wiąże się często z zastosowaniami, których kluczowym elementem jest gromadzenie danych w wyniku skanowania. Wyposażanie terminali w profesjonalne czytniki znakomicie ułatwia tego typu pracę. Właśnie tę cechę często podkreślają producenci sprzętu specjalistycznego, gdy porównują go z urządzeniami z rynku konsumenckiego. Ich produkty bywają wyposażone w skanery do kodów 1D i 2D umożliwiające odczyt bez względu na położenie. Zapewniają szybkie pozyskanie i przetwarzanie informacji z bardziej złożonych etykiet, zawierających np. tekst, kod i pole adresowe. Sprawnie odczytują coraz powszechniejsze kody wyświetlane na ekranach urządzeń elektronicznych. Dlatego, gdy trzeba np. przeprowadzać wielogodzinne inwentaryzacje zasobów (co jest częstszym zajęciem także w sektorze publicznym), rozwiązania z rynku konsumenckiego okazują się za mało wydajne, a nawet zawodne.
Wyraźnie jednak widać, że wszechobecna konsumeryzacja odciska swoje piętno na ofercie producentów sprzętu specjalistycznego. Dostawcy starają się dostarczać urządzenia odpowiadające gustom użytkowników klasycznych smartfonów i tabletów – zarówno pod względem interfejsu, parametrów ekranu, jak i sposobu obsługi. Klienci chcą, by przypominały z wyglądu ich prywatny sprzęt, a jednocześnie zawierały funkcje biznesowe i umożliwiały sprawne gromadzenie danych. Dlatego producenci wprowadzają na rynek modele zaprojektowane zgodnie z nowymi trendami, ale zapewniają także wsparcie dla starszych terminali, o tradycyjnym i, nie da się ukryć, „ciężkawym” wyglądzie.
Patryk Borzęcki, dyrektor handlowy ds. rozwiązań biznesowych, S&T
W sektorze utilities wiele obiektów technicznych i urządzeń jest już od lat wyposażonych w systemy zapewniające służbom technicznym zdalną kontrolę i rejestrację parametrów pracy, sterowanie zakresem działania, obserwowanie stanów i wielkości obciążeń. Dotychczas jednak rozwiązania informatyczne tworzyły swoiste „wyspy”, do których dostęp mieli nieliczni. To z kolei ograniczało możliwości wykorzystania gromadzonej w ten sposób wiedzy do bieżącego zarządzania pracą. Współczesne rozwiązania ewoluują w kierunku inteligentnej i aktywnej kontroli, czyli „zestawu naczyń połączonych” bazujących na danych pochodzących z tradycyjnego monitorowania. Narzędzia, które wdrażamy, już dziś pozwalają np. na symulowanie wysokości amortyzacji środków trwałych oczyszczalni ścieków lub elektrowni pozostającej jeszcze w budowie. Dzięki odpowiedniemu gromadzeniu informacji z różnych urządzeń przedsiębiorstwa z branży utilities mogą budować rozwiązania przewidujące wystąpienie awarii.
Artykuł Internet (coraz bardziej do) rzeczy pochodzi z serwisu CRN.
]]>