Artykuł Bezpieczny dostęp na nowe czasy pochodzi z serwisu CRN.
]]>Informacje na temat lekkomyślnego postępowania użytkowników z hasłami są alarmujące (patrz: ramka na str. 40). Dlatego nie dziwi fakt, że zdecydowanej większości włamań do sieci dokonuje się za pomocą wykradzionych danych uwierzytelniających. Aby zapewnić większe bezpieczeństwo firmowych zasobów, można doradzać klientom stosowanie uwierzytelnienia wieloskładnikowego (Multi-Factor Authentication). Wybrane rozwiązanie powinno chronić dostęp do danych i aplikacji, a przy tym gwarantować prostotę logowania.
Wprowadzenie dwuskładnikowego uwierzytelniania (2FA) zwiększy bezpieczeństwo logowania i będzie chronić poufne dane nawet wtedy, gdy dane uwierzytelniające zostaną wykradzione (np. w wyniku zainfekowania złośliwym kodem) albo w inny sposób „wyciekną” z systemu informatycznego. Jeśli 2FA zostanie zastosowane do połączeń z firmowym VPN-em, systemem CRM czy udostępnianymi na zewnątrz usługami webowymi, będzie nie tylko chronić pracowników klienta, ale także użytkowników zewnętrznych, np. partnerów firmy (zwiększając tym samym zaufanie do niej).
W procesie dwuskładnikowego uwierzytelniania zwykle wykorzystywane jest coś, co osoba logująca się do sieci posiada. Często są to rozwiązania oparte na technice haseł jednorazowych (One-Time Password), ważnych wyłącznie podczas jednej sesji logowania i używanych wraz z podstawowym, statycznym hasłem. W powszechnym użyciu jest technika OTP bazująca na generowaniu SMS-ów z jednorazowym hasłem. Stosują ją np. banki i operatorzy różnych usług, w tym chmury obliczeniowej.
Na rynku jest wiele rozwiązań sprzętowych do tworzenia jednorazowych kodów – systemów z tokenami. Wygenerowanie kodu może być automatyczne, np. przy próbie logowania się do danej platformy, lub mechaniczne – użytkownik naciska specjalny przycisk lub wprowadza komendę w odpowiednim urządzeniu (tokeny USB). Oferowane są także urządzenia wyposażone w klawiaturę – tzw. kalkulatorki – wykorzystujące mechanizm challenge-response. Zarówno tokeny bez klawiatury, jak i challenge-response mogą mieć format karty płatniczej. Istnieją również rozwiązania z tokenami wirtualnymi, czyli programowymi. Instalowane najczęściej na urządzeniach mobilnych, mają podobne funkcje jak ich sprzętowe odpowiedniki, np. generują hasła jednorazowe.
Rozwiązania OTP pomagają pokonać największą słabość haseł statycznych, czyli możliwość powtórnego ich wykorzystania do ataku. Przestępca, który w jakiś sposób wejdzie w posiadanie jednorazowego hasła, nie zdoła wykorzystać go do ponownego zalogowania się do systemu. Niestety, nie jest to rozwiązanie doskonałe. Wykazano, że bywa podatne na ataki typu „man-in-the-middle”. Klientom, którzy wykorzystują OTP i muszą się zabezpieczyć przed zaawansowanymi technicznie atakami (dotyczy to np. banków), dostawcy oferują nowe generacje rozwiązań, zwiększające ochronę jednorazowych haseł przez analizę behawioralną, dodatkową weryfikację transakcji i „odcisk palca” (fingerprinting) urządzeń klienckich.
Banki i firmy, których systemy wymagają najsilniejszych zabezpieczeń, muszą szukać nowych sposobów ochrony klientów także z powodu zmiany ich zachowań, do jakiej doszło w ostatnich latach. Dawniej telefony były drugim narzędziem typu out-of-band (niezależnym od podstawowej formy komunikacji), bo logowanie do usług on-line odbywało się zwykle na komputerze. Obecnie dodatkowe uwierzytelnianie za pomocą kodu z SMS-a, wysyłanego na numer telefonu, przestaje należycie pełnić swoją rolę, gdyż to samo urządzenie jest wykorzystywane zarówno do pełnego uwierzytelniania, jak i do korzystania z usług. Szybki wzrost ilości złośliwego kodu tworzonego do urządzeń mobilnych i stosowanie coraz bardziej wyrafinowanych technik ataków sprawiają, że bezpieczeństwo takiego uwierzytelniania maleje.
Nieodpowiedzialni pracownicy
Jeśli chodzi o posługiwanie się hasłami, pracownicy potrafią się wykazać wyjątkową nieodpowiedzialnością. Beztrosko udostępniają je współpracownikom, używają tego samego hasła do wielu zastosowań, a nawet deklarują chęć ich sprzedaży (!), gdyby była taka okazja.
Oto zatrważające wnioski z ankiety „SailPoint Market Pulse Survey 2016” przeprowadzonej wśród tysiąca pracowników firm z Australii, Francji, Niemiec, Holandii, Wielkiej Brytanii i USA.
Większość badanych (65 proc.) przyznała się do wykorzystywania tego samego hasła do wielu aplikacji, a jedna trzecia do współużytkowania ich z kolegami. Pracodawców może napawać przerażeniem informacja, że co piąty pracownik jest skłonny sprzedać swoje hasła (w ubiegłorocznym badaniu co siódmy). Wśród chętnych do takiej „transakcji” 44 proc. zrobiłoby to za mniej niż 1 tys. dol. Bardzo niepokojące jest także to, że ponad 40 proc. respondentów ankiety przyznało się do posiadania dostępu do firmowych kont po rozstaniu się z pracodawcą.
Do problemów z hasłami dochodzi sprawa tzw. Shadow IT. Jeden na trzech pracowników mówi, że wykupił aplikację w modelu SaaS bez wiedzy działu IT (wzrost o 55 proc. w stosunku do wyników z ubiegłorocznego badania). Z kolei ponad jedna czwarta (26 proc.) przesyła poufne dane do chmury z zamiarem korzystania z nich poza firmową siecią.
Skutecznym zabezpieczeniem przed niepowołanym dostępem mogą być rozwiązania biometryczne, które od chwili powstania wydawały się najlepszym sposobem na kłopoty z hasłami. Ich zastosowanie rozwiązuje problem zarządzania danymi uwierzytelniającymi, które jest zarówno kosztowne, jak i czasochłonne. Zwalniają użytkowników z konieczności pamiętania wielu haseł, które – jeśli mają skutecznie chronić – powinny być przecież skomplikowane. Dostęp do danych może zabezpieczać wygodny w użyciu biometryczny system pojedynczego logowania (Single Sign-On). Przez lata jednak rozwiązania biometryczne, np. czytniki linii papilarnych, systemy rozpoznające geometrię dłoni, brzmienie głosu czy tęczówkę oka, nie zyskiwały popularności z powodu wysokiej ceny oraz niedoskonałości technicznej.
Wygląda na to, że czasy biometrii w końcu nastały, gdyż coraz większe zainteresowanie tego typu rozwiązaniami wyraża zarówno sektor prywatny, jak i publiczny. Najwięksi producenci branży IT, wśród nich Apple, Intel i Microsoft, stosują rozwiązania biometryczne w swoich urządzeniach. Szybki postęp w tej dziedzinie powoduje, że powstaje także wiele start-upów chcących dostarczać bezpieczne i wygodne w użyciu – a przede wszystkim nowatorskie – zabezpieczenia oparte na rozpoznawaniu cech biometrycznych. VAR, który stworzy własne oprogramowanie lub wykorzysta gotowe, może je oferować klientom wraz ze specjalizowanym sprzętem biometrycznym. Wartość dodana dotyczyć będzie usług, które mogą objąć: dostosowywanie rozwiązania do specyficznych potrzeb klienta, integrowanie, wdrożenie, szkolenie oraz doradztwo dotyczące rozwijania systemu.
Do obserwowanego obecnie upowszechniania się tego typu zabezpieczeń w dużej mierze przyczyniają się urządzenia przenośne, za pomocą których uwierzytelnienia można dokonać w dowolnym miejscu. Służy do tego czytnik wbudowany w urządzenie bądź dołączany przez USB albo bezprzewodowo.
Zastosowanie czytników z rozwiązaniem biometrycznym w urządzeniach mobilnych przyczynia się do szerszego wykorzystania tej metody w autoryzacji dostępu do chmury obliczeniowej. Przechowywanie danych biometrycznych w chmurze, a nie w konkretnym urządzeniu, przyspiesza proces uwierzytelniania i stanowi dodatkowe zabezpieczenie.
Mariusz Stawowski
Stosowanie w firmie kryptograficznych zabezpieczeń danych, oprócz niewątpliwych korzyści, niesie także zagrożenia. Na przykład klucze szyfrowania mogą zostać zgubione lub świadomie zniszczone przez pracowników albo dostać się w niepowołane ręce, a niekompatybilność różnych narzędzi szyfrowania spowodować utratę dostępu do danych.
By uniknąć tych problemów, trzeba wprowadzić jeden standard kryptograficznej ochrony danych oraz wdrożyć adekwatne do potrzeb przedsiębiorstwa spójne i całościowe rozwiązanie szyfrujące.
Nie brakuje jednak sceptyków wątpiących w skuteczność uwierzytelniania opartego wyłącznie na jednej metodzie rozpoznawania unikalnych cech człowieka. Uzasadniają swą opinię, wskazując ograniczenia: brak efektywnego odsiewania zakłóceń oraz 100-proc. dokładności rozpoznania i uniwersalności, co zwiększa niebezpieczeństwo podszycia się pod osobę uprawnioną. Rozwiązaniem tego problemu jest zastosowanie uwierzytelniania opartego na kilku cechach jednocześnie.
Narastające problemy z zapewnieniem bezpieczeństwa poufnym informacjom sprawiły, że szyfrowanie zasobów stało się koniecznością. Chronione w ten sposób dane są niedostępne dla osób nieposiadających klucza/hasła. Szyfrowanie może obejmować zapisane dane i dotyczyć całych dysków (zarówno wewnętrznych pamięci masowych, jak i nośników zewnętrznych) lub tylko folderów czy plików. Można je zastosować do baz danych, zarówno strukturalnych, jak i nieustrukturalizowanych.
Za pomocą szyfrowania chroni się także przesyłane dane. Mogą służyć do tego sieci VPN w zdalnej komunikacji, protokół SSL (Secured Sockets Layer) w wykorzystujących przeglądarkę połączeniach z serwerami webowymi, SSH (Secure Shell) w zastosowaniach terminalowych i przesyłaniu plików czy WPA/WPA2 w komunikacji bezprzewodowej. Przedmiotem szyfrowania może być cała komunikacja sieciowa lub wybrane aplikacje, takie jak np. poczta elektroniczna. Zaletą tego ostatniego zastosowania jest to, że nawet jeśli e-mail z wrażliwymi danymi zostanie przez pomyłkę wysłany do niewłaściwej osoby, nie będzie ona w stanie odczytać chronionych treści.
Dane mogą być zabezpieczane przez szyfrowanie oparte na układach sprzętowych lub wykorzystujące oprogramowanie. W tym pierwszym przypadku procesy enkrypcji i dekrypcji są dokonywane przez specjalny, przeznaczony do tych zadań procesor w urządzeniu szyfrującym. W przypadku programowego szyfrowania do zabezpieczania angażowane są współużytkowane zasoby sprzętowe. To oczywiście sprawia, że szyfrowanie sprzętowe jest procesem szybszym, a przechowywanie kluczy szyfrujących w wydzielonej i niedostępnej pamięci, czyni je także bezpieczniejszym.
Wdrożenie szyfrowania na urządzeniach mobilnych, firmowych serwerach, komputerach znacząco ogranicza możliwość utraty wrażliwych danych w wyniku ataku z wykorzystaniem malware, utraty sprzętu czy nieautoryzowanego dostępu. Ponieważ ta metoda zabezpieczania informacji staje się wszechobecna (jest wbudowywana w aplikacje i elementy infrastruktury), to powstaje problem mnożenia się kluczy szyfrujących, którymi trzeba zarządzać. Posługiwanie się oddzielnymi kluczami szyfrowania do każdej aplikacji czy zasobu z pewnością nie jest rozwiązaniem optymalnym.
Jacek Starościc
Dwuskładnikowe uwierzytelnianie 2FA to znacznie pewniejszy sposób weryfikowania tożsamości użytkownika i ochrony jego danych niż pojedyncze hasło. Powinny z niego korzystać nie tylko duże firmy, ale także mniejsze. Często nie mają one bowiem polityki bezpieczeństwa i w związku z tym są bardziej narażone na ataki. Badania dowodzą, że przyczyną ponad trzech czwartych naruszeń bezpieczeństwa sieci są słabe hasła lub skradzione dane logowania. Dobrą ochroną jest w tym przypadku dwuskładnikowa autoryzacja, łącząca pewność zabezpieczeń, niską cenę oraz prostotę użycia tokenu sprzętowego lub aplikacyjnego.
Znacznie rozsądniejsze będzie zaproponowanie klientowi wdrożenia wspólnej platformy zarządzania nimi. Tworzy ona programową infrastrukturę ochrony danych, służącą do wydawania cyfrowych certyfikatów i kluczy szyfrujących przeznaczonych dla osób, oprogramowania, sprzętu (takiego jak serwery czy urządzenia mobilne) oraz systemów. Pozwala także zarządzać nimi w całym cyklu życia. Platforma taka powinna być kompatybilna z powszechnie dziś wykorzystywanymi różnymi rodzajami urządzeń końcowych oraz być łatwa w obsłudze.
Do obsługi szyfrowania w systemach bezpiecznego obiegu informacji można wykorzystać sprzętowe moduły kryptograficzne (Hardware Security Module) – w formie zewnętrznych urządzeń sieciowych lub specjalnych kart PCI. Urządzenia HSM zapewniają sprzętową ochronę poufnych danych (w tym certyfikatów, kluczy podpisu, kluczy szyfrujących). Umożliwiają tworzenie i zarządzanie tysiącami kluczy kryptograficznych, używanych do zabezpieczania wielu aplikacji i serwerów baz danych. Służą do szyfrowania danych w procesach i transakcjach biznesowych, zabezpieczania dokumentów elektronicznych w urzędach i instytucjach, zarządzania kluczami dostępu itp. Przy użyciu HSM można tworzyć „strefę bezpieczeństwa” także w środowiskach, do których nie ma się bezpośredniego dostępu, takich jak zewnętrzne centra danych. Takie rozwiązanie zapewni klientowi spokój, bo wszystkie operacje przeprowadzane przez użytkowników i administratorów urządzenia są zapisywane w logach audytowych, a próby nieautoryzowanej manipulacji w modułach HSM kończą się zniszczeniem poufnych danych.
Im więcej połączonych rozmaitych urządzeń, tym więcej wektorów ataku. I nie trzeba nawet przywoływać obrazu samochodu, nad którym w czasie jazdy napastnik przejmie kontrolę, czy „zhakowanych” pomp insulinowych lub urządzeń wspomagających pracę serca, by stwierdzić, że sprawa jest bardzo poważna. W ostatnim raporcie CERT Orange pojawiły się informacje o wzroście liczby ataków związanych z Internetem rzeczy. Choć urządzenia połączone z siecią to potencjalne cele ataku, niestety podczas ich projektowania kwestiom bezpieczeństwa nie poświęca się należytej uwagi. „Jeśli nawet lodówce, pralce czy inteligentnej żarówce nie da się zrobić wielkiej krzywdy, to zawsze mogą służyć jako urządzenia zombie, wzmacniające siłę ataku botnetu” – czytamy w raporcie operatora.
W miarę przybywania urządzeń połączonych ze sobą przez Internet of Things ich uwierzytelnianie i szyfrowana komunikacja będą miały coraz większe znaczenie. Kompetencje i rozwiązania w zakresie ochrony instalacji IoT staną się częścią bardzo perspektywicznego biznesu na rynku bezpieczeństwa w najbliższych latach. Integrator, który zadba o swój rozwój w tym obszarze, będzie mógł liczyć na satysfakcjonujący zwrot z poczynionych inwestycji.
Artykuł Bezpieczny dostęp na nowe czasy pochodzi z serwisu CRN.
]]>Artykuł Acronis gwarantuje bezpieczeństwo danych w firmie i chmurze pochodzi z serwisu CRN.
]]>
Wśród bogatej oferty produktowej firmy Acronis szczególnie warte wskazania są trzy rozwiązania przeznaczone dla firm. Wszystkie aplikacje wyposażone są w polski interfejs użytkownika.
Acronis Backup Advanced to rozbudowane, uniwersalne narzędzie do zarządzania kopiami zapasowymi. Funkcja Universal Restore zapewnia odtworzenie (na dowolnym sprzęcie) systemu operacyjnego z wykonanego wcześniej obrazu. Unikalną cechą tego rozwiązania jest to, że podczas odtwarzania obrazu na urządzenie inne niż bazowe sterowniki sprzętowe są podmieniane na właściwe, aby po zakończeniu tej operacji system był jak najszybciej gotowy do pracy (funkcja ta dotyczy zarówno stacji roboczych z systemem Windows, jak też serwerów Windows i Linux).
Kopia zapasowa może być odtworzona na „gołym” sprzęcie (bare-metal recovery), bez konieczności instalowania systemu operacyjnego, albo w środowisku wirtualnym – Acronis wspiera wszystkie popularne platformy wirtualizacyjne (Microsoft Hyper-V, VMware, Citrix XenServer, RedHat, Linux KVM, Parallels, Oracle). Narzędzie gwarantuje także migrację systemów pomiędzy platformami fizycznymi i wirtualnymi w dowolny sposób (P2V, V2P, P2P, V2V). Wszystkie zabezpieczone dane można poddać deduplikacji, która zapewnia szczególną oszczędność miejsca właśnie w środowiskach wirtualnych.
Wykonywana przez Acronic Backup Advanced kopia danych może być przechowywana nie tylko na twardych dyskach, ale też na taśmach (oprogramowanie wyposażone jest w mechanizm zarządzania zabezpieczonymi w ten sposób danymi) i w chmurze publicznej zarządzanej przez producenta. Rozwiązanie wyróżnia bardzo atrakcyjny model licencjonowania – rozliczenie odbywa się według liczby fizycznych maszyn (serwerów, stacji roboczych, hostów wirtualizacyjnych), natomiast na wartość opłaty nie wpływa liczba uruchomionych wirtualnych maszyn i działających w nich aplikacji.
Trzy pytania do…
CRN Co wyróżnia program partnerski firmy Acronis?
Artur Cyganek Podstawowym wyróżnikiem jest szybsza możliwość uzyskania przez partnera statusu Gold. W normalnym trybie przejście ze statusu srebrnego do złotego wymaga jednego roku. Ale jeżeli widzimy, że dana firma ma bardzo duży potencjał, angażuje się w projekty, rozwija się, szkoli i aktywnie sprzedaje, na nasze zaproszenie może wcześniej zacząć korzystać z benefitów dla złotych partnerów. Dla firm o tym statusie przewidziane są wyższe rabaty oraz pierwszeństwo w obsłudze niektórych projektów.
CRN Na rynku rozwiązań do backupu z powodu dużej konkurencji producentom trudno jest zapewnić partnerom lepsze od innych warunki współpracy. W jaki sposób staracie się zachęcić resellerów, aby to właśnie rozwiązania Acronisa wprowadzili do swojej oferty?
Artur Cyganek Nasi partnerzy mają zagwarantowany dwucyfrowy rabat, pod warunkiem że dokonają rejestracji danego projektu i solidnie przeprowadzą go od początku do końca. Wprowadziliśmy też system premiujący wybrane grupy produktów dla większych firm, na sprzedaży których można zarobić najwięcej. Do tej grupy zaliczają się rozwiązania do backupu maszyn wirtualnych, świadczenia usług backupu w chmurze oraz systemy do bezpiecznego przesyłania dużych plików. Partnerom gwarantujemy też, że 100 proc. sprzedaży realizujemy w kanale, a do ich dyspozycji bez przerwy pozostaje cały nasz zespół.
CRN Która z cech oprogramowania firmy Acronis jest najbardziej doceniana przez polskich klientów?
Artur Cyganek Wszystkie nasze produkty mają polski interfejs, co okazuje się dominującym kryterium w wielu przetargach publicznych, ale doceniane jest to też przez komercyjnych klientów. W bardzo rozsądny sposób przygotowana została też oferta, dzięki której możliwe jest świadczenie usług przez partnerów. Dla klientów, którzy nie chcą lub nie mogą przechowywać swoich danych w chmurze publicznej, przeznaczone są rozwiązania wdrażane w ich centrach danych, ale z konsolą zarządzającą, którą może obsługiwać partner. Dzięki temu żadne dane klienta nie opuszczają jego siedziby, zaś partner dba o zapewnienie ciągłości dostępu do nich w zdalny sposób.
Oprogramowanie to dostępne jest też w postaci umożliwiającej świadczenie usług przez firmy partnerskie – Acronis Backup Service. Ma ono podobną funkcjonalność jak Acronis Backup Advanced (bez deduplikacji i obsługi taśm), ale zmieniony został model licencjonowania (uwzględnia backup lokalny oraz chmurowy) i rozliczania (roczna subskrypcja zamiast jednorazowej licencji).
Kolejnym ciekawym rozwiązaniem jest Acronis Access Advanced. Umożliwia ono bezpieczny zdalny dostęp do korporacyjnych plików (także z urządzeń mobilnych z systemami iOS, Android i Windows Phone), synchronizowanie ich oraz sprawowanie pełnej kontroli nad ich udostępnianiem. Zbudowane w ten sposób środowisko charakteryzuje się bardzo wysokim poziomem bezpieczeństwa. Wszystkie dane w trakcie przesyłania, a także te przechowywane na urządzeniach mobilnych i na dyskach wirtualnych, są szyfrowane 256-bitowym kluczem AES. Acronis Access Advanced implementuje się w środowisku lokalnym klienta i konfiguruje w taki sposób, aby pliki nigdy nie opuściły firmowej infrastruktury. Oprogramowanie to w bardzo łatwy sposób można zintegrować z katalogiem użytkowników Active Directory oraz takimi systemami MDM jak m.in. MobileIron, Good Technology, Samsung Knox itp.
Od 1 lipca 2015 r. zaczął obowiązywać nowy program partnerski Acronis. Zredukowano w nim liczbę poziomów partnerstwa do trzech (Authorized, Gold i Platinum) i wprowadzono możliwość przejścia przez szybszą (niż tradycyjny rok) ścieżkę uzyskania statusu złotego (Grow to Gold). Zrzeszeni w programie partnerskim resellerzy mogą liczyć na atrakcyjne rabaty, możliwość rejestracji projektów, darmowe wsparcie techniczne, szkolenia sprzedażowe i techniczne oraz narzędzia ułatwiające udział w kampaniach marketingowych.
Lista aktywnych partnerów Acronis publikowana jest w ogólnodostępnej części witryny tego producenta. Natomiast wszyscy autoryzowani resellerzy mogą korzystać z portalu partnerskiego Acronis (partners.acronis.eu), gdzie dostępny jest formularz rejestracji projektów, jak też inne narzędzia ułatwiające nawiązanie współpracy z klientami i sprzedaż. Tam też znajduje się baza wiedzy dotycząca rozwiązań Acronis. Producent gwarantuje szybki kontakt z działem wsparcia, który służy pomocą przy rozwiązaniu nietypowych problemów.
Firmy, którzy sprzedają rozwiązania tej marki już od pewnego czasu, mogą skorzystać z narzędzia Acronis Renewal Manager. Zapewnia ono wgląd we wszystkie zrealizowane przez danego partnera projekty i ułatwia przygotowanie oferty dotyczącej odnowienia licencji dla poszczególnych klientów. Dzięki temu w prosty sposób można zarówno zagwarantować użytkownikom dostęp do najnowszych technologii związanych z zabezpieczaniem danych, jak też zapewnić sobie dodatkowy zysk. Wszyscy partnerzy mają też dostęp do licencji NFR (Not-fot-Resale), dzięki którym mogą zademonstrować klientom funkcjonalność oferowanego oprogramowania i przeprowadzać projekty proof-of-concept.
Dla firm o statusie złotym i platynowym przygotowane zostały programy wsparcia finansowego, które mogą być wykorzystane do prowadzenia kampanii marketingowych bądź organizacji spotkań i prezentacji dla klientów. Od partnerów tych wymagane jest też, aby w ich zespole byli obecni przeszkoleni i certyfikowani inżynierowie (Acronis Certified Engineer, ACE) i sprzedawcy (Acronis Sales Professional, ASP).
Autoryzowanymi dystrybutorami firmy Acronis w Polsce są: Arrow ECS, Clico i ITXON.
Artykuł powstał we współpracy z firmą Acronis.
Artykuł Acronis gwarantuje bezpieczeństwo danych w firmie i chmurze pochodzi z serwisu CRN.
]]>Artykuł Druga rewolucja mobilna? pochodzi z serwisu CRN.
]]>W jakim stopniu polskie i zagraniczne przedsiębiorstwa są gotowe na drugą (według określenia redakcji) rewolucję mobilną, zbadał Citrix. W Polsce badanie przeprowadzono na grupie 300 dużych i średnich firm z różnych branż. Za granicą – wśród 1700 decyzyjnych w sprawach IT osób z 17 krajów. Respondentów zapytano o korzyści i trudności związane z wdrażaniem inicjatyw mobilnych, bieżącą politykę wobec tego typu rozwiązań oraz o wpływ konsumeryzacji IT i trendu BYOD na działalność biznesową ich firm. Zdaniem Citriksa wyniki obydwu badań rzucają światło na postrzeganie mobilności, jej znaczenie dla firm oraz wpływ na zwiększanie elastyczności i produktywności przedsiębiorstw.
Jakie działania towarzyszące wdrożeniom technik mobilnych uznały za najważniejsze polskie przedsiębiorstwa? Podniesienie poziomu bezpieczeństwa poprzez usprawnienie wdrażania aktualizacji oprogramowania zabezpieczającego (ten punkt wskazało 52 proc.), poprawa wydajności i dostępności sieci (47 proc.), zapewnienie odpowiedniego wsparcia technicznego dla urządzeń mobilnych (40 proc.), wzrost zastosowania rozwiązań do udostępniania plików oraz do współpracy (35 proc.), utworzenie polityki firmy dotyczącej pracy zdalnej/elastycznego czasu pracy (30 proc.), ukształtowanie polityki dotyczącej własności urządzeń/odpowiedzialności za nie (29 proc.), rozwój i wzrost wykorzystania aplikacji mobilnych (28 proc.), większe zastosowanie systemów do zarządzania aplikacjami mobilnymi (25 proc.) oraz urządzeniami mobilnymi (22 proc.). W przedsiębiorstwach zagranicznych kolejność priorytetów jest inna – patrz tabela poniżej.
Określenie powyższych priorytetów przekłada się, zdaniem Citriksa, na postrzeganie korzyści z zatrudnienia w bardziej mobilnej organizacji. Według polskich pracowników do najważniejszych należą: większa elastyczność pracy (tak uważa 80 proc. respondentów Citri-
ksa), większa produktywność (55 proc.), możliwość spędzania większej ilości czasu z klientami i szybszego reagowania na ich potrzeby (50 proc.), większa satysfakcja zawodowa (44 proc.), brak konieczności pracy w określonych godzinach (40 proc.) oraz redukcja czasu poświęcanego na dojazd do pracy (34 proc.). W tabeli po prawej pokazujemy, na jakie korzyści wskazali respondenci zagraniczni.
Pod względem możliwości wykorzystywania urządzeń osobistych do celów zawodowych polskie przedsiębiorstwa wypadają nieco gorzej niż zagraniczne. Wśród zagranicznych firm to coraz bardziej popularny zwyczaj. Już teraz 38 proc. przedsiębiorstw pozwala na korzystanie z prywatnych urządzeń mobilnych w celach służbowych w ramach oficjalnej polityki IT. Taką politykę z kolei 20 proc. zbadanych organizacji zatwierdzi w ciągu najbliższych 12 miesięcy, a 18 proc. – za około dwa lata. Z kolei w 11 proc. firm trwają rozmowy na temat wdrożenia zasad dotyczących BYOD. Zaledwie 12 proc. przebadanych przedsiębiorstw twierdzi, że tego rodzaju strategia nie zostanie nigdy w niej zatwierdzona.
Jeśli chodzi o polskie organizacje, w 13 proc. przebadanych firm już wdrożono strategię BYOD, w 4 proc. zostanie wdrożona w ciągu roku, a w 2 proc. – za około dwa lata. Natomiast 31 proc. respondentów twierdzi, że w ich organizacjach tego typu oficjalna polityka nigdy nie zostanie wprowadzona, 9 proc. nie wie, kiedy to nastąpi, a 32 ma obiekcje – czy w ogóle. W 2 proc. przebadanych organizacji trwają rozmowy na ten temat.
Zdaniem Sławomira Kuziaka zarządy reagują bardzo szybko na konieczność dostosowania firm do mobilnej rzeczywistości. Wdrażanie rozwiązań mobilnych w firmach według BPSC może być jednak spowolnione z powodu ograniczeń sprzętowych, a także konieczności odpowiedniego wyszkolenia pracowników. Drugą kwestią, która może budzić obawy przedsiębiorców wobec systemów i aplikacji mobilnych, jest bezpieczeństwo. Jak natomiast widzą sprawę firmy przebadane przez Citriksa?
Zagraniczne organizacje wskazywały średnio trzy główne bariery. Były to: brak zabezpieczeń dla nowych urządzeń i programów klienckich (38 proc.), istnienie w firmie tradycyjnych systemów, które nie nadają się do celów mobilnych (37 proc.) oraz trudności związane ze wspieraniem wielu mobilnych systemów operacyjnych (36 proc.). Z kolei polskie przedsiębiorstwa najczęściej wskazują na: występowanie innych (niż związane z mobilnością) celów, które muszą być realizowane (49 proc.), wysokie koszty wdrożenia (47 proc.) oraz kłopoty związane ze wspieraniem wielu mobilnych systemów operacyjnych (36 proc.). Polskie firmy (ogółem 37 proc.) zwróciły również uwagę na inne problemy, np. mało wydajne łącza internetowe, kwestie związane z ochroną danych, wysokie koszty samych rozwiązań mobilnych, opór kierownictwa, a także bariery wynikające ze specyfiki firmy.
Według Pawła Stapfa w przedsiębiorstwach, w których rozwiązania mobilne mają strategiczne znaczenie, większość wdrożonych systemów jest przestarzała.
– Brak dynamicznych zmian na tym rynku wynika z niskiego zadowolenia klientów z użytkowanych systemów mobilnych oraz wysokich i trudnych do przewidzenia nakładów, jakie firmy ponoszą na ich utrzymanie – mówi specjalista. – Skutkuje to nieufnością, a co za tym idzie małym zainteresowaniem wymianą na najnowsze, elastyczne i skalowalne rozwiązania mobilne dostosowane do unikalnych potrzeb przedsiębiorstw działających w różnych sektorach gospodarki.
Według specjalisty trudności związane z wdrażaniem nowych systemów mobilnych w polskich przedsiębiorstwach podzielić można na dwie kategorie. Pierwsze dotyczą firm, które już dysponują systemami informatycznymi wykorzystującymi technologie mobilne.
– Wysoki koszt ich wdrożenia w poprzednich latach skutecznie blokuje wszelkie zmiany i rozwój w tym obszarze – mówi specjalista itelligence. – Wynika to z niskiej świadomości osób decyzyjnych, które nie uczestnicząc w bieżącym użytkowaniu przestarzałych rozwiązań mobilnych, nie widzą potrzeby ponoszenia kosztów nowych inwestycji, a tym samym nie są zainteresowane rozwojem tego narzędzia.
Druga kategoria obejmuje przedsiębiorstwa, które nie wykorzystują technologii mobilnych pomimo potencjalnych korzyści, jakie mogłyby one przynieść – mowa o usprawnieniu komunikacji i wymiany danych pomiędzy centralą a pracownikami terenowymi. I znów wchodzi w grę niska zdaniem specjalisty świadomość potencjalnych użytkowników dotycząca możliwości, jakie dają najnowsze technologie mobilne, oraz założenie, że – podobnie jak działo się w poprzednich latach – oferowane na rynku produkty są drogie i nie zaspokajają unikalnych potrzeb poszczególnych przedsiębiorstw.
Paweł Stapf, Sales Manager, Mobile Solutions, IT Outsourcing & Services, itelligence
Wdrożenie rozwiązań mobilnych wiąże się z koniecznością zakupu nie tylko technologii umożliwiających sprawną i bezpieczną komunikację, ale również z wyposażeniem pracowników terenowych w odpowiedniej klasy urządzenia mobilne, m.in. smartfony, tablety, moduły GPS itp. Kierowanie się wyłącznie ceną – a tym samym wybór niskiej klasy narzędzi mających liczne ograniczenia w szybkości i bezawaryjności działania – skutkuje ostatecznie obniżeniem wydajności i skuteczności działania całego systemu mobilnego. Powoduje to zmniejszenie lub nawet brak efektu synergii oraz odbiór wdrożenia jako kolejnego narzędzia, którego używanie jest czasochłonne i utrudnia pracę pracownikom terenowym.
Kluczem do podjęcia przez przedsiębiorstwo decyzji o wdrożeniu rozwiązania mobilnego jest przedstawienie konkretnych korzyści biznesowych, przede wszystkich finansowych, jakie przynieść może wykorzystanie technologii mobilnej. Nie bez znaczenia jest również informacja o skutecznym użytkowaniu systemów mobilnych przez konkurencję oraz bogata lista referencyjna obejmująca udane wdrożenia w obszarze, w którym działa przedsiębiorstwo klienta.
Sławomir Kuźniak, dyrektor Centrum Kompetencyjnego Rozwoju Aplikacji Internetowych w BPSC
Zarządzający firmami nie zadają już sobie pytania „czy”, ale „kiedy” i „w jaki sposób” pozyskać rozwiązania. Mają bowiem pełną świadomość, że staną się one jednym z czynników decydujących o konkurencyjności ich przedsiębiorstw. Wynika to między innymi z faktu, że coraz większa część pracowników firm to osoby mobilne – nie tylko menedżerowie i handlowcy, ale również serwisanci, a nawet pracownicy produkcyjni raportujący w ten sposób swoje działania. Możliwość uczestniczenia w określonych procesach niezależnie od miejsca przebywania to nie tylko szansa na usprawnienie decyzyjności. Dzięki możliwości przeprowadzania online procedur, które wcześniej wymagały generowania i podpisywania dokumentów, zmniejszyła się konieczność pojawiania się pracowników w siedzibie firmy. Świadomość tych korzyści powoduje, że zarządy reagują bardzo szybko na konieczność dostosowania się do mobilnej rzeczywistości – ograniczeniem bywa częściej przygotowanie oraz wyposażenie pracowników. Drugą kwestią, która może budzić obawy przedsiębiorców przed systemami i aplikacjami mobilnymi, jest bezpieczeństwo.
Artykuł Druga rewolucja mobilna? pochodzi z serwisu CRN.
]]>Artykuł Od komputerów medycznych do tabletów pochodzi z serwisu CRN.
]]>Przez kilka lat w Polsce w tym obszarze panowała całkowita samowola, do momentu, gdy 18 lutego 2011 r. sprawę sprzętu komputerowego do diagnostyki medycznej uregulowało Rozporządzenie Ministra Zdrowia, w którym, w załączniku nr 1, określo m.in., że w radiologii cyfrowej używa się dwóch podstawowych rodzajów stanowisk (opisowych i przeglądowych) oraz zdefiniowano wymagania odnośnie monitorów dla poszczególnych rodzajów stanowisk.
Z oczywistych powodów we wspomnianym załączniku nie można było szczegółowo opisać np. minimalnej konfiguracji (parametrów procesora, pamięci, twardego dysku) stacji diagnostycznej czy przeglądowej, bowiem kolejne, szybsze generacje podzespołów prędko zastępują poprzednie. Stacja powinna zapewniać komfortową pracę diagnoście i nie zmuszać do długiego oczekiwania na otwarcie pliku z wynikami badań – ma to szczególne znaczenie wobec faktu, że cały czas rośnie rozdzielczość obrazów generowanych przez urządzenia diagnostyczne, w związku z czym konieczne jest posiadanie jak najszybszego sprzętu.
Jan Siwek
W szpitalach, których kierownictwo IT ma świadomość potrzeb środowiska lekarskiego i swobodę zaspokajania ich na odpowiednim poziomie, często można spotkać naprawdę dobrze zaprojektowaną, zaawansowaną infrastrukturę informatyczną. Tam zazwyczaj nikt nie robi oszczędności rzędu kilkudziesięciu tysięcy złotych np. na monitorach podłączanych do urządzenia diagnostycznego wartego miliony złotych. Niestety, większość szpitali ma w tym zakresie bardzo dużo do nadrobienia. Ponieważ jednak na najbliższe lata jest przewidziany duży zastrzyk finansowy z UE w tej dziedzinie, jest szansa na rozpoczęcie realizacji projektów znacznej przebudowy infrastruktury w tych szpitalach, które jeszcze tego nie uczyniły.
Stacja diagnostyczna lub przeglądowa powinna też być w stanie przechować wiele obrazów w pamięci operacyjnej i na twardym dysku oraz dysponować mocą obliczeniową wystarczającą do ich sekwencyjnego przeglądania. Komputerowe stacje diagnostyczne najczęściej są także integralną częścią szpitalnego systemu archiwizacji i dystrybucji obrazów diagnostycznych PACS (Picture Archiving and Communication System). Dlatego, biorąc pod uwagę znaczenie wysokiej jakości wyświetlanego obrazu, niezbędnej do uzyskania prawidłowej diagnozy, sprzęt komputerowy używany w tym celu powinien być jak najwyższej jakości. Komputer jako stacja diagnostyczna pracuje w szpitalu w trybie 24/7, dlatego musi być odpowiednio wytrzymały, wyposażony w niezawodne komponenty (procesor, pamięć, płytę główną, twarde dyski, medyczną kartę graficzną itp.).
– Decyzję oraz odpowiedzialność prawną za dostarczenie stosownego produktu ponosi zarówno dostawca, jak i kupujący. NEC jako producent stara się maksymalnie wspierać partnerów niezbędną w tym celu wiedzą, aby ich oferta pozostawała w zgodzie z obowiązującym prawem – zapewnia Robert Buława, Manager Channel Sales & Marketing Central East Europe, NEC Display Solutions.
Komputer, który ma pracować jako stacja diagnostyczna, powinien być wystarczająco wydajny, aby odtwarzać pliki graficzne o bardzo dużej rozdzielczości i swobodnie wykonywać operacje na nich. Jego kluczowym elementem jest medyczna karta graficzna, certyfikowana przez producentów monitorów medycznych. Powinna zapewniać współpracę z kilkoma monitorami (minimum dwoma diagnostycznymi i jednym opisowym) oraz przetwarzać odpowiednią liczbę kolorów lub odcieni w skali szarości. Jako procesor wystarczy układ Intel Core i5 lub Xeon, do tego 4 GB pamięci RAM i dwa twarde dyski o pojemności min. 500 GB połączone w RAID 1 (zapis lustrzany).
Nowoczesne tomografy komputerowe mogą generować kilkanaście tysięcy przekrojów podczas jednego badania. Trudno więc dziś sobie wyobrazić przeglądanie przez radiologa i chirurga każdego z przekrojów w ograniczonym na diagnozę czasie bez komputerowego wspomagania. Dlatego do komputerów, które mają służyć do rekonstrukcji trójwymiarowych obrazów z tomografii komputerowej, potrzebny będzie procesor klasy Intel Core i7 lub szybszy, minimum 8 GB RAM, specjalistyczna medyczna karta graficzna z 1–2 GB pamięci RAM oraz kilka szybkich dysków o pojemności 1 TB, połączonych w strukturę RAID 5.
W przypadku diagnostyki obrazowej (przede wszystkim w dużych szpitalach) warto rozważać także zastosowanie architektury klient-serwer, w której rolę stacji roboczej może pełnić komputer o niewielkiej mocy lub terminal (thin client), ponieważ wszelkie obliczenia wykonywane są na serwerze. Zaletą tego modelu jest to, że użytkownik nie musi korzystać wyłącznie z jednej, konkretnej stacji roboczej, a system ułatwia przesyłanie obrazów do innych lekarzy w celu konsultacji. Ogólny finansowy bilans w przypadku zastosowania takiego modelu może jednak być podobny do tradycyjnego – pieniądze zaoszczędzone na stacjach roboczych, trzeba będzie przeznaczyć na kupno dodatkowych serwerów. Wyzwaniem może się też okazać zapewnienie odpowiedniej infrastruktury sieciowej do przesyłania ogromnych ilości danych z serwerów do stacji roboczych.
Wątpliwości, które pojawiają się przy wyborze sprzętu komputerowego, nie dotyczą monitorów służących do wyświetlania obrazu z wynikami badań medycznych – powinny spełniać najwyższe wymagania opisane przez normy. Wspomniany załącznik nr 1 do Rozporządzenia Ministra Zdrowia z 18 lutego 2011 r. mówi m.in., że na stanowisku opisowym dla badań radiologicznych wymagane są co najmniej dwa monitory monochromatyczne pracujące w układzie pionowym, w standardzie DICOM, stanowiące parę i posiadające świadectwo parowania wydane przez producenta.
Podczas wyświetlania medycznych obrazów zgodnych ze standardem DICOM ważne jest, aby monitory umożliwiały zobrazowanie nawet najsubtelniejszych przejść tonalnych. Dlatego każdy egzemplarz musi prezentować wyniki badań w identyczny sposób na różnych lekarskich stanowiskach komputerowych, a czas żywotności i, co za tym idzie, stabilnego wyświetlania obrazu powinien być w przypadku tych urządzeń jak najdłuższy.
W warunkach często zmieniającego się oświetlenia w pomieszczeniu diagnostycznym (co zresztą jest sytuacją, której należałoby unikać) przydaje się wbudowany w monitory czujnik, który automatycznie optymalizuje poziom jasności oraz odcieni szarości do obowiązujących norm. Gdy mamy do czynienia z koniecznością oceny obrazu przez kilku lekarzy jednocześnie (co ma miejsce np. na sali operacyjnej) lub konsultacjami, to bardzo istotne jest prawidłowe odwzorowanie obrazu pod szerokim kątem widzenia.
Ważnym aspektem jest żywotność sprzętu. W przypadku monitorów diagnostycznych pracujących z dużą luminancją realny czas prawidłowego działania w zgodzie z rozporządzeniem ministra zdrowia jest zaledwie kilkuletni. Z tego powodu przepisy dotyczące cyfrowego obiegu dokumentacji medycznej wymuszają na podmiotach medycznych kupno nowych wyświetlaczy, tym samym tworząc kolejne biznesowe szanse dostawcom.
Robert Buława
Potencjał rynku rozwiązań IT dla placówek medycznych jest bardzo duży, ponieważ cyfryzacja obejmuje nie tylko szpitale publiczne, ale także coraz lepiej zaopatrzone w aparaturę diagnostyczną jednostki prywatne, których przybywa z roku na rok. Także lekarze coraz częściej opisują wyniki badań w domu, a – żeby robić to zgodnie z prawem – muszą posiadać jeden lub dwa monitory diagnostyczne. Poza tym, o czym często się zapomina, medyczne rozwiązania IT są kupowane także do licznych gabinetów stomatologicznych oraz weterynaryjnych
W sytuacji, gdy dział IT szpitala musi radzić sobie z tysiącem komputerów pracujących w sieci (każdy ze swoim systemem operacyjnym i aplikacjami oraz mogącymi się psuć drogimi podzespołami), atrakcyjnym rozwiązaniem – zarówno ze względów funkcjonalnych, jak i ekonomicznych – może być środowisko wirtualnych desktopów (VDI – Virtual Desktop Infrastructure). Jest to architektura typu klient-serwer, w której terminalem może być bardzo ubogie sprzętowo i niedrogie urządzenie (typu thin cient albo zero-client), ale także dowolny komputer, również taki sprzed kilku lat. Wirtualny desktop (system, aplikacje, dane) jest dostarczany użytkownikowi przez sieć z serwera.
Gdy terminal ulegnie awarii, jest wymieniany przez administratora na sprawny, a użytkownik po zalogowaniu się ma za chwilę dostęp do pulpitu i aplikacji w stanie tuż sprzed awarii. Podobnie przemieszczający się po szpitalu pielęgniarki i lekarze mogą zyskać dostęp do swoich profili, aplikacji i potrzebnych danych z każdego terminalu (a jeśli wyrazi na to zgodę administrator – także logować się do swojego profilu z domu lub innego dowolnego miejsca przez Internet). Wirtualne maszyny i dane są cały czas przechowywane na serwerze, co maksymalnie zwiększa ich bezpieczeństwo. Administratorom odpada obowiązek uaktualniania i dostarczania poprawek do systemów i aplikacji na wszystkich komputerach. Wyzwaniem natomiast staje się zapewnienie odpowiednio wydajnej sieci i serwerów oraz wystarczająco pojemnych pamięci masowych, bo to na nich przechowywane są obrazy wirtualnych maszyn, dzięki którym funkcjonują terminale.
Sprzedaż urządzeń przenośnych (w tym tabletów) rośnie w olbrzymim tempie. Stają się coraz popularniejsze w różnych zastosowaniach, także medycznych. Pojawiają się też na rynku tablety specjalnie zaprojektowane dla placówek ochrony zdrowia. Ich producentami są zarówno wielkie firmy, jak Fujitsu czy Panasonic, jaki i mniejsze, specjalizujące się w sprzęcie do specyficznych zastosowań. Wzmocniona konstrukcja, wysoka odporność na wodę i kurz oraz zestaw profesjonalnych aplikacji sprawiają, że takie urządzenia świetnie sprawdzają się w szpitalach. Po skończonej pracy można je umyć, co zapewnia niezbędną higienę użytkowania.
Stosowanie mobilnych urządzeń, takich jak notebooki i tablety, oznacza większe zagrożenie utratą poufnych informacji (co jest istotną kwestią w placówkach ochrony zdrowia), np. w przypadku kradzieży urządzenia. Można temu jednak zaradzić, stosując silne szyfrowanie lub opisane już środowisko wirtualnych desktopów, gdzie żadne dane nie są przechowywane lokalnie, a kradzież komputera oznacza jedynie utratę sprzętu.
Chociaż mobilna rewolucja trwa, to w gabinetach lekarskich i szpitalach nadal znajdują zastosowanie komputery stacjonarne, wśród których rosnącą popularnością cieszą się urządzenia typu All-in-One. Zajmują niewiele miejsca, pobierają niewiele energii i nie potrzebują wydajnego chłodzenia, więc są ciche. Mogą mieć dotykowe ekrany i chociaż nie oferują wielkiej wydajności, to w zupełności wystarczą do wszelkich czynności administracyjnych w placówkach ochrony zdrowia.
Artykuł Od komputerów medycznych do tabletów pochodzi z serwisu CRN.
]]>