Artykuł Big Data: dane mogą stać się wartościową informacją pochodzi z serwisu CRN.
]]>To, jaki efekt uda się osiągnąć, zależy od poziomu dojrzałości firmy w podejściu do danych. Popularny model, Dell Data Maturity, definiuje cztery poziomy dojrzałości. Pierwszy z nich to Data Aware. Firmy na tym poziomie są świadome znaczenia danych, które posiadają, oraz tego, że mogą dzięki nim zyskiwać doraźne korzyści. Większość pracy poświęcają jednak na ręczne tworzenie raportów z różnych systemów i źródeł informacji.
– Kosztuje to dużo wysiłku, ale niestety główny cel, jaki udaje się zrealizować w tym przypadku, to analiza danych historycznych – wyjaśnia Łukasz Duda, E-commerce Director, ABC Data.
Na drugim poziomie, Data Proficient, znajdują się firmy, które pomimo niekompletnej integracji wszystkich źródeł danych osiągnęły już dość wysoki poziom standaryzacji modeli raportowych.
– Takie przedsiębiorstwa mają większą świadomość dotyczącą sposobu zbierania i przechowywania danych. Dążą do standaryzowania raportów i automatyzacji pomiaru kluczowych dla danego obszaru wskaźników – tłumaczy specjalista.
Data Savvy to trzeci poziom dojrzałości w podejściu do danych. Znajdujące się na nim firmy odczuwają już realne efekty biznesowe wynikające z wykorzystania Big Data. Ma ono widoczny wpływ na działania operacyjne, skutkuje zauważalnymi oszczędnościami i przyspieszeniem procesu decyzyjnego. Dopiero na tym etapie informacje będące w posiadaniu przedsiębiorstwa zaczynają być wykorzystywane do osiągania rzeczywistej przewagi konkurencyjnej.
Pełne wykorzystanie gromadzonych danych następuje dopiero w firmach znajdujących się na czwartym poziomie – Data Driven. To firmy, w których w zasadzie dla wszystkich kluczowych procesów biznesowych zdefiniowano odpowiednie wskaźniki i są one na bieżąco analizowane. Pozyskiwane informacje wykorzystuje się do analizy trendów, optymalizacji, predykcji i tworzenia nowych wartości. Firmy te doskonale zdają sobie sprawę, że Big Data pozwala nie tylko mierzyć, lecz przede wszystkim analizować i wyciągać wnioski, dzięki czemu wydatnie ułatwia prowadzenie biznesu i zwiększenie przewagi konkurencyjnej.
Kompetencje związane z analityką danych pozyskanych z internetu są jednymi z ważniejszych w działach e-commerce.
– Pierwszym narzędziem analitycznym wykorzystywanym bardzo szeroko w tej branży jest Google Analytics. Dzięki instalacji prostego skryptu na stronach sklepu internetowego, umożliwia m.in. szybki pomiar aktywności użytkowników, analizę ścieżki zakupowej, szczegółowy podgląd podstawowych KPI związanych z konwersją sprzedaży, a więc stosunku liczby zamówień do liczby odwiedzin e-sklepu, a także pomiar skuteczności prowadzonych działań marketingowych – wyjaśnia Łukasz Duda.
W chwili, gdy prowadzone analizy sprzedaży online trzeba zestawić z innymi zbiorami danych, z pomocą przychodzą rozwiązania klasy Business Intelligence. Umożliwiają integrację danych, łączenie ich w relacje i tworzenie raportów, które zawierają najważniejsze informacje (tzw. dashboardów), co umożliwia przejrzyste wizualizacje danych.
– Warto pamiętać, że same narzędzia nie zoptymalizują jednak firmowych procesów i nie spowodują, że biznes stanie się bardziej rentowny – podsumowuje Łukasz Duda.
Potrzeba korzystania z Big Data w przedsiębiorstwie pojawia się wtedy, gdy zmienia ono podejście do danych. To właśnie dzięki wdrożeniu strategii Big Data w zasięgu ręki są: optymalizacja procesów, obniżenie kosztów działalności oraz podejmowanie szybkich decyzji menedżerskich.
Łukasz duda
E-commerce Director, ABC Data
W przypadku dużych zbiorów danych pochodzących z wielu źródeł problemem jest nie tylko ich wielkość, ale także wiarygodność danych. Bardzo trudnym zadaniem dla przedsiębiorstw jest przejście od fazy zbierania i obróbki danych do ich syntetyzowania, stawiania hipotez i wnioskowania. Dopiero wtedy zebrane informacje realnie mogą przełożyć się na wartość biznesową.
Artykuł Big Data: dane mogą stać się wartościową informacją pochodzi z serwisu CRN.
]]>Artykuł Serwerownia kontra chmura: pojedynek wciąż wyrównany pochodzi z serwisu CRN.
]]>Co prawda, może się zdarzyć, że w praktyce taki model wyjdzie trochę drożej niż firmowe centrum danych. W końcu po drugiej stronie też muszą być wykorzystywane jakieś urządzenia. Oczywiście dostawca usług chmurowych jest na uprzywilejowanej pozycji, jeśli chodzi o zakupy sprzętu (może wynegocjować lepsze ceny), natomiast konieczne jest zapewnienie przestrzeni w centrum danych, opłacenie zasilania, klimatyzacji oraz wykwalifikowanego personelu technicznego. Ale w tym właśnie tkwi różnica między infrastrukturą funkcjonującą on-site (w siedzibie klienta) i off-site (w firmie trzeciej). Gdyby klient sam musiał zainwestować we wszystkie zabezpieczenia oraz opłacić dobrych specjalistów, całe przedsięwzięcie kosztowałoby więcej. Zwłaszcza, że dzięki chmurze nie ma konieczności dokonywania jednorazowej inwestycji.
Czy to oznacza, że wszystkich klientów należy nakłaniać do natychmiastowej rezygnacji z własnej infrastruktury? Na pewno nie. Zresztą u wielu z nich jest to niemożliwe lub niewskazane z powodu regulacji prawnych albo zbyt dużej ilości danych, do których potrzebny jest stały i szybki dostęp, np. dużych plików multimedialnych. Takim klientom warto zaproponować jeden z ogromnej liczby dostępnych na rynku serwerów NAS. Praktycznie w każdym przypadku spełni on swoją rolę. Nie tylko przechowa setki terabajtów danych. Sprzęt dwóch liderów rynku – firm QNAP i Synology – wyposażony jest w wirtualizator, dzięki któremu użytkownicy mogą korzystać nawet z kilkunastu wirtualnych maszyn zawierających serwerowy system operacyjny i aplikacje. To rozwiązanie świetnie sprawdzi się także w firmach, w których z centralnie zgromadzonych zasobów korzysta ponad 100 użytkowników.
Dostawcy tradycyjnych serwerów nie muszą jednak czuć się zagrożeni. Według IDC w II kwartale bieżącego roku wartość światowego rynku serwerów zwiększyła się o rekordowe 38,6 proc. Ilościowy wzrost wyniósł 20,7 proc., z czego wniosek, że najlepiej sprzedawały się duże maszyny, prawdopodobnie zamawiane przez operatorów usług chmurowych do ich centrów danych.
Nastąpiło też duże przetasowanie wśród dostawców. W pierwszej połowie 2018 r. na pozycję lidera wybił się Dell EMC, chociaż sprzedaż tego producenta zwiększyła się nieznacznie. Przyczyna zmiany na pozycji lidera to duży spadek sprzedaży sprzętu HPE. Na dalszych miejscach, ze zbliżonymi udziałami, znalazły się: IBM, Lenovo i Cisco. W danych prezentowanych przez IDC widać ogromny wzrost udziału white boxów. Zdaniem analityków to efekt zmiany klasyfikacji tego typu urządzeń, więc rzeczywisty wzrost, mimo że wciąż notowany, nie jest aż tak duży.
Zdalny dostęp to oszczędność czasu
Świadczone zdalnie usługi wsparcia znajdują się w ofercie firm IT od wielu lat, a do korzystania z nich wystarczy dobre połączenie z Internetem. Także producenci zapewniają sobie możliwość zdalnego podłączenia się przez VPN do urządzeń infrastruktury centrum danych (serwerów, macierzy dyskowych, sprzętu sieciowego), aby weryfikować poprawność ich pracy, w ramach podpisanej z klientem umowy SLA.
Na rynku jest wiele narzędzi, które gwarantują zdalne połączenie się z komputerem. Część jest bezpłatnych, czasami pod warunkiem użytkowania wyłącznie do celów prywatnych (na rozwiązanie do działań komercyjnych trzeba wykupić stosowną licencję). I, jak nietrudno się domyślić, to bardzo częste pole do nadużyć.
– Klienci starają się zaoszczędzić na licencjach i szukają możliwości obejścia modelu licencjonowania. Efektem tego jest zaskoczenie, gdy usługa zostaje zablokowana, a producent sugeruje przejście na wersję zapewniającą większe uprawnienia. Na szczęście większość klientów, gdy zauważy, że nie uda się nic wykombinować, kupuje licencje odpowiednie do swoich potrzeb. Niestety zdarzają się też przedsiębiorcy, którzy stawiają sprawę na ostrzu noża i straszą prawnikami, zupełnie bezpodstawnie – mówi Rafał Goszyk, Sales Manager w Prianto.
Bezpłatne usługi zdalnego dostępu, oprócz tego, że najczęściej nie są dopuszczone do komercyjnego użycia, mają bardzo ograniczone funkcje. Limitowana jest liczba komputerów, do których można uzyskać dostęp, brakuje zaawansowanych narzędzi gwarantujących bezpieczeństwo (jest tylko ochrona dostępu za pomocą hasła), często nie jest także zapewniony transfer plików do oddalonego komputera. Oczywistym jest też, że nowe funkcje trafiają najpierw do płatnych usług. Jedną z nich, która ostatnio cieszy się coraz większą popularnością, jest uzyskanie zdalnego dostępu do telefonów i tabletów, bo obowiązek zarządzania nimi coraz częściej przechodzi z działów administracyjnych do działów IT.
Adam Kotecki, CEO, Cloudica
Małe i średnie firmy, jako nabywców rozwiązań IT, można podzielić na dwie grupy. Do pierwszej należą przedsiębiorstwa, które funkcjonują na rynku już od dłuższego czasu i w zakresie IT praktycznie się nie rozwijają. W nich komputer służy do pisania dokumentów i korzystania z Internetu, a brakuje świadomości związanej z bezpieczeństwem danych i ryzykiem wystąpienia awarii sprzętu lub problemów z oprogramowaniem. Druga grupa to firmy „świeższe” i startupy, w których z reguły dominują młodzi pracownicy, a zarząd widzi konkretne korzyści płynące z rozwiązań IT i umie przekształcić je w przewagę konkurencyjną swojego przedsiębiorstwa. A prawda już od paru lat jest oczywista – bez IT trudno będzie wygrać praktycznie w każdej dziedzinie biznesu. Ostatnio przekonują się o tym chociażby restauratorzy, hotelarze i taksówkarze.
Chmura ułatwia rozwój
Już od kilku lat analitycy uważają za oczywistych odbiorców usług chmurowych małe i średnie firmy. Często są po prostu zbyt małe, aby budować własną rozbudowaną infrastrukturę IT, a na zatrudnienie wykwalifikowanych informatyków, którzy profesjonalnie zabezpieczą całe środowisko, ich nie stać. Zresztą tacy eksperci nie mieliby szansy wykazania się, gdyż systemy IT w mniejszych przedsiębiorstwach nie są rozbudowane i nie wymagają ciągłego nadzoru oraz analiz występującego ryzyka. Z drugiej strony małe firmy mogą paść ofiarą takich samych ataków jak duże. Złośliwy kod ransomware czy cryptojacking nie będzie „zwracał uwagi” na wielkość przedsiębiorstwa, po prostu zainfekuje podatny komputer.
Bezpieczeństwo (a właściwie jego brak) długo było wskazywane jako główna wada chmury. Tymczasem dziś świadomi przedsiębiorcy coraz częściej podnoszą tę kwestię jako argument „za”. Ale korzyści jest znacznie więcej. Należy do nich również zwiększona gwarancja ciągłości działania firmy, a przecież nawet najmniejsze muszą dbać o niezakłóconą obsługę klientów.
– Kiedyś jeden z naszych klientów, którego infrastrukturę pocztową przenieśliśmy do chmury, z ulgą zwierzył się nam, że wreszcie może spokojnie pracować. Gdy miał serwery pocztowe zainstalowane w swojej serwerowni, usługa była niedostępna przynajmniej raz w tygodniu, a informatycy często przeprowadzali naprawę dopiero na drugi dzień po wystąpieniu awarii. Obecnie jest to nie do zaakceptowania – podkreśla Adam Kotecki, CEO w firmie Cloudica, która świadczy usługi wsparcia IT dla przedsiębiorstw oraz aktywnie promuje rozwiązania chmurowe.
Problemem jedynie może być to, że szefowie firm najczęściej nie mają większej wiedzy dotyczącej IT niż ta, która wynika z codziennego użytkowania komputera. Dla nich zaufanym doradcą będzie głównie informatyk, jeśli go zatrudniają. A on będzie się bronił przed migracją wybranych usług do chmury z obawy o własne stanowisko. Dlatego, idąc do klienta z ofertą cloud computingu należy unikać podawania oczywistego argumentu, że przeniesienie usług do chmury wyeliminuje konieczność zatrudniania ekspertów. Wręcz przeciwnie, od samego początku należy podkreślać jak ważnym ogniwem we współpracy stanie się zatrudniony w firmie informatyk, bo to on jako osoba merytoryczna będzie pierwszym punktem kontaktu i to on będzie w stanie skutecznie wyegzekwować właściwy poziom świadczenia usług przez firmę trzecią. Jednocześnie zyska więcej czasu na pomoc zarządowi w rozwijaniu przedsiębiorstwa, dzięki czemu jego pozycja w przedsiębiorstwie wzrośnie, być może wręcz zasłuży na awans i podwyżkę. Uprawniona jest tu analogia do świata medycyny – usługodawcy mają lekarzy specjalistów, podczas gdy zatrudniony lokalnie informatyk będzie firmowym lekarzem pierwszego kontaktu.
Rafał Goszyk, Sales Manager, Prianto
Płatne rozwiązania zapewniające zdalny dostęp mają szereg funkcji, które „domowym” informatykom są po prostu niepotrzebne. Jednym z przykładów jest możliwość dostania się z uprawnieniami administratora do komputera, na którym zalogowany jest zwykły użytkownik, bez takich praw. Korporacyjne rozwiązania z reguły wyposażone są także w prosty system zarządzania zadaniami podczas świadczenia usług wsparcia, dzięki czemu nie potrzeba kolejnego narzędzia do obsługi zgłoszeń użytkowników.
Zdalne wsparcie od partnerów
Integratorzy powinni być zainteresowani świadczeniem usług zdalnego wsparcia, ponieważ są gwarancją stałego zysku. Każdy dostawca umożliwiającego to oprogramowania i usług zapewnia partnerom odpowiednie licencje właśnie do tego celu. Powodzeniu tego typu biznesu sprzyja ograniczona liczba informatyków na rynku pracy oraz wysokie koszty ich zatrudnienia. Dlatego firmy IT powinny coraz poważniej rozważać taką formę świadczenia usług.
– Nowoczesne narzędzia oraz chmura zdecydowanie ułatwiły świadczenie usług wsparcia oraz zwiększyły ich efektywność – mówi Adam Kotecki. – Jeżeli klient ma całe środowisko w chmurze, sytuacja dla nas jest optymalna, bo mamy do jego zasobów łatwy i bezpieczny dostęp. W innych sytuacjach korzystamy z VPN-ów i narzędzi do zdalnego dostępu do komputerów. Postawiliśmy sobie za cel, aby jak najwięcej prac administracyjnych robić zdalnie. Klienci nie mają z tym problemów. Zwycięża argument, że dzięki temu usługa jest tańsza i na życzenie świadczona przez całą dobę. W takim modelu obecność w siedzibie firmy administratora byłaby albo bardzo droga, albo kłopotliwa ze względów logistycznych.
Prezes Cloudica podkreśla, że w przypadku niektórych klientów zatrudnieni przez usługodawcę informatycy pełnią dyżury administracyjne. Wszyscy pracownicy przedsiębiorstwa wiedzą, że w podanych godzinach do dyspozycji jest informatyk i mogą zwrócić się do niego z dowolną prośbą lub pytaniem związanym z IT. Specjalista wykonuje też prace planowe, takie jak konserwacja sprzętu, wymiana tonerów, klawiatur itp. Dzięki temu w małych firmach nie trzeba zatrudniać informatyków na stałe.
Podczas gdy Intel obchodzi 40. rocznicę wyprodukowania pierwszego procesora x86, AMD wydaje się powoli wracać do łask użytkowników. W II kwartale 2018 r. przychody producenta procesorów do komputerów i kart graficznych wzrosły aż o 53 proc. w porównaniu z notowanymi w tym samym okresie roku ubiegłego. U Intela w tym samym czasie wzrost wyniósł tylko 15 proc.
Trzeba jednak przyznać, że AMD znalazło się na uprzywilejowanej pozycji, bowiem procesory graficzne tego dostawcy są bardzo często wykorzystywane do kopania kryptowalut (na tym rynku AMD konkuruje z Nvidią). Jednocześnie nietrudno zauważyć, że coraz więcej producentów pecetów, serwerów oraz NAS-ów wprowadza do oferty modele wyposażone w układy AMD. Intel z kolei wybrał dwie inne nisze: pamięci flash oraz rozwiązania Internetu rzeczy.
Artykuł Serwerownia kontra chmura: pojedynek wciąż wyrównany pochodzi z serwisu CRN.
]]>Artykuł Wyścig z danymi w tle: liczy się każda milisekunda pochodzi z serwisu CRN.
]]>Zmiany w świecie software’u wpływają na układ sił. Wprawdzie pierwszoplanowe role na rynku nadal odgrywają Microsoft z Oracle’em czy SAP-em, ale do walki włączają się młodzi, perspektywiczni gracze. Rywalizacja przedstawicieli „nowej fali” z weteranami zapowiada się nad wyraz ciekawie. Poza tym wraz z nadejściem DevOps powstaje zapotrzebowanie na zupełnie nowe narzędzia, o których kilka lat temu nikt nie słyszał.
Zmiany od ręki
Opracowanie finalnej wersji Windows 2000, zawierającej aż 30 mln linii kodu, zajęło programistom około pięciu lat. Obecnie nikt nie pozwoli sobie na tak długi czas przygotowania produktu – ze względu na tempo przemian zachodzących na rynku nowych technologii, a także presję wywieraną przez klientów. Oprogramowanie musi nadążać za szybko zmieniającymi się potrzebami użytkowników. Nie bez przyczyny do słownika programistów trafiły takie zwroty, jak Continuous Integration (ciągła integracja), Continuous Delivery (ciągłe dostarczanie) czy Continuous Deployment (ciągłe wdrażanie).
– Jednym z największych wyzwań stojących przed zespołami DevOps jest Continuous Delivery. Z naszych obserwacji wynika, że jedynie około 2 proc. przedsiębiorstw posiada odpowiednie narzędzia, które zapewniają płynną realizację tego procesu – mówi Steve Burton, wiceprezes ds. marketingu w Harness.
Na czym polega Continuous Delivery? Zespoły programistyczne tworzą software w krótkich cyklach produkcyjnych, co umożliwia szybsze budowanie, testowanie i publikację aplikacji. Jeszcze do niedawna na taki komfort mogli sobie pozwolić jedynie giganci: Amazon, Apple, Google, Facebook czy Netflix. Jednak założyciele startupu Harness chcą, aby z tego typu rozwiązań korzystały zarówno wielkie instytucje finansowe, jak i małe firmy, które dopiero stawiają pierwsze kroki na rynku. W tym celu stworzyli platformę Continuous Delivery as a Service.
– W ciągu ostatnich pięciu lat firmy musiały budować własne narzędzia Continuous Delivery. Dla przykładu Netflix opracował autorskie rozwiązania na bazie platformy open source Spinnaker. Inni rozszerzają funkcjonalność systemów przeznaczonych do Continuous Integration, takich jak Jenkins czy Bamboo, co nie zawsze kończy się sukcesem. Notabene 45 proc. naszych klientów stanowią firmy, które wcześniej próbowały wdrożyć Continuous Delivery, ale im się to nie udało – wyjaśnia Steve Burton.
Harness opracowało autorską technologię Smart Automation umożliwiającą pełną automatyzację procesu Conti-
nuous Delivery. Dodatkowym walorem jest funkcja ciągłej weryfikacji, wykorzystująca mechanizmy uczenia maszynowego. System rozpoznaje podstawowe zachowania aplikacji, niezależnie od jej jakości, wydajności czy bezpieczeństwa, i może inicjować wycofywanie zmian w przypadku wykrycia nieprawidłowej aktywności – w rezultacie unika się przestoju bądź awarii. Steve Burton zwraca także uwagę na oszczędność kosztów modelu usługowego w porównaniu z budową własnej platformy – miesięczna opłata za instancję wynosi 25 dol.
Harness istnieje dopiero od 2016 r. i zgromadziło od funduszy venture capital 1,2 mln dol. Jyoti Bansal, założyciel tego kalifornijskiego startupu, nie ukrywa, że liczy na powtórzenie sukcesu swojej poprzedniej firmy – AppDynamics, którą w ubiegłym roku sprzedał Cisco za 3,7 mld dol.
Baza danych dla pamięci flash
Relacyjne bazy danych SQL przez lata królowały na rynku, ale ich dalszy prymat stoi pod znakiem zapytania. Do ofensywy przechodzą dostawcy baz NoSQL, które bardzo dobrze radzą sobie z obsługą danych niestrukturyzowanych oraz pracą w środowiskach rozproszonych. Szczególnie dużą popularnością w tej grupie produktów cieszą się Cassandra oraz MongoDB. W ich cieniu znajduje się system opracowany przez firmę Aerospike, wyróżniający się unikalną architekturą Hybrid Memory. Aerospike umożliwia równoległe wykorzystanie pamięci flash (SSD, PCIe, NVMe) na jednym systemie do wykonywania odczytów z opóźnieniami rzędu milisekund przy bardzo dużych obciążeniach.
– Praca z Aerospike pomaga nam analizować w czasie rzeczywistym 75 mln transakcji dziennie. Dzięki temu możemy szybko i precyzyjnie odróżnić prawdziwych użytkowników od oszustów, zapewniając naszym klientom pełne bezpieczeństwo – tłumaczy Phil Steffora, Chief Security
Officer w ThreatMetrix.
Powyższy przykład obrazuje możliwości, jakie niesie ze sobą technologia opracowana przez startup z Mountain View. Niemniej wykrywanie cyberprzestępców to tylko jedno z zadań realizowanych przez bazę Aerospike. Przedsiębiorstwa z branży AdTech wykorzystują jej wydajność do zakupu powierzchni reklamowej w modelu aukcyjnym. Aerospike działa od 2009 r. i łączą ją bliskie relacje z Intelem. Warto dodać, że startup otrzymał od funduszy venture capital 30 mln dol. – przeznacza je m.in. na rozwój produktu, który nie ogranicza się wyłącznie do bicia rekordów szybkości przetwarzania danych. W świecie biznesu występuje podział na narzędzia zaprojektowane do gromadzenia i pozyskiwania informacji (Systems of Record), np. danych abonentów telewizji kablowej, oraz społecznościowe systemy komunikacji (Systems of Engagement), które wykrywają próby oszustwa bądź prowadzą akcje online w czasie rzeczywistym. O ile druga grupa produktów wymaga zastosowania bazy danych o bardzo wysokiej wydajności, o tyle w przypadku pierwszym liczy się przede wszystkim spójność oraz precyzja. Aerospike zapewnia, że ich system łączy obie cechy, tym samym sprawdza się w różnego rodzaju zastosowaniach.
– Nasza architektura umożliwia ograniczenie liczby serwerów w centrum danych. Jeden z użytkowników Cassandry posiadał klaster składający się z 450 węzłów. Po wdrożeniu naszej bazy ich liczba zmniejszyła się do 60. To przynosi ogromne oszczędności, liczone nawet w milionach dolarów. Klienci nie wierzą nam, kiedy im o tym mówimy. Jedynym sposobem, aby ich do tego przekonać, jest przeprowadzenie projektu pilotażowego – mówi Brian Bulkowski, współzałożyciel i dyrektor techniczny Aerospike.
Dane strukturalne nie do lamusa
Todd Mostak, założyciel i CEO MapD, rozpoczął swoją przygodę z danymi podczas Arabskiej Wiosny Ludów. W owym czasie prowadził badania dotyczące wykorzystania Twittera wśród uczestników protestów i – żeby ułatwić sobie zadanie – opracował własny system do interaktywnej analizy dużych zbiorów danych. Rok po zakończeniu rebelii Mostak otworzył startup, w który zainwestowali m.in. In-Q-Tel (spółka córka CIA), Verizon oraz Nvidia. Do tej pory inwestorzy wpompowali w startup 37,1 mln dol.
MapD stanowi połączenie bazy open source SQL oraz systemu do analityki wizualnej. Platforma wykorzystuje do przeszukiwania zbiorów procesor GPU Nvidia, choć istnieje także możliwość użycia układu CPU. Czym tłumaczyć taki wybór? Jednostki różnią się sposobem przetwarzania zadań. CPU składa się z kilku rdzeni zoptymalizowanych pod kątem sekwencyjnego przetwarzania szeregowego, natomiast GPU zawiera tysiące mniejszych rdzeni zaprojektowanych z myślą o realizacji wielu zadań jednocześnie. Baza danych MapD napędzana przez GPU przeszukuje miliardy wierszy w ciągu kilkunastu milisekund, a proces tworzenia wizualizacji odbywa się w mgnieniu oka.
– Układ GPU zapewnia skanowanie danych z prędkością nawet 5 TB na sekundę, natomiast w przypadku CPU przy dużym szczęściu można osiągnąć wynik 100 GB na sekundę – dodaje Todd Mostak.
MapD znajduje szerokie zastosowanie w analityce operacyjnej, analizach geoprzestrzennych oraz badaniach naukowych. Na liście referencyjnej startupu z San Francisco znajdują się m.in.: Nividia, Verizon, Huawei, Ericsson i Fannie Mae. W marcu firma zaczęła sprzedawać swoje produkty w modelu subskrypcyjnym. Ceny zaczynają się od 150 dol. za miesiąc dla zestawu danych strukturalnych do 10 mln wierszy. Taki krok ma ułatwić dostęp do zaawansowanego narzędzia analitycznego mniejszym podmiotom. Nie ulega wątpliwości, że popyt na tego typu rozwiązania będzie szybko rosnąć. Jak wynika z badań McKinsey, firmy i instytucje poświęcają ok. 80 proc. czasu na przygotowywanie i zarządzanie danymi. Innym problemem jest deficyt specjalistów od danych. W bieżącym roku w Stanach Zjednoczonych pozostanie nieobsadzona około połowa stanowisk Data Scientist.
– Procesory graficzne nie wszędzie zdają egzamin. Na przykład niezbyt łatwo radzą sobie z przetwarzaniem sekwencyjnym i danymi niestrukturalnymi. Natomiast architektura GPU świetnie sprawdza się w przypadku pracy z zasobami uporządkowanymi, które wciąż pełnią ważną rolę. Według IDC 75 proc. zarządzanych danych stanowią zasoby strukturalne. Kiedy przyjrzymy się trendom sprzętowym na rynku nowych technologii, nie dziwią rosnące akcje Nvidii – mówi Todd Mostak.
SAP Hana dla oszczędnych
Technologia in-memory wprowadziła spore ożywienie na rynku oprogramowania. Jej innowacyjność polega na przeniesieniu procesów zarządzania zbiorami danych z przestrzeni dyskowej do pamięci operacyjnej RAM, która oferuje kilkanaście razy szybszy odczyt i zapis aniżeli nośniki SSD. To rozwiązanie najczęściej utożsamiane jest z systemem SAP Hana, tymczasem na rynku istnieją alternatywne produkty. Ciekawy przykład stanowi amerykańska firma GridGain, która dostarcza platformę in-memory zbudowaną na bazie systemu open source Apache Ignite.
– Udostępnienie podstawowej bazy kodu źródłowego do Apache Software Foundation ma zapewnić rozwój i popularyzację technologii in-memory, a także zbudować dobrze prosperującą społeczność realizującą nowe projekty – tłumaczy Abe Kleinfeld, CEO GridGain.
Baza Ignite odnotowała milion pobrań w skali roku, zajmując piąte miejsce na liście najpopularniejszych projektów Apache
(najwyżej uplasował się Hadoop). Warto także zwrócić uwagę na to, że przychody GridGain w latach 2014–2016 wzrosły o 919 proc., osiągając poziom 4 mln dol. Firma ma ok. 100 płatnych klientów, w tym banki Barclays, Société Generale oraz ING, a także fintechy i biura podróży.
– Jesteśmy czymś na wzór „open source Hana”. System SAP nie jest wdrażany przez startupy ani firmy, które wcześniej nie inwestowały w technologie niemieckiego producenta. Największą barierą są wysokie koszty. Coraz więcej przedsiębiorców przekonuje się do rozwiązań open source, wybierając je zamiast Oracle’a, Microsoftu czy SAP-a – przekonuje Abe Kleinfeld.
Według Gartnera w przyszłym roku rynek systemów in-memory osiągnie wartość 11 mld dol. Dla porównania: w 2014 r. przychody w tym segmencie wyniosły niespełna 4 mld dol. Abe Kleinfeld uważa, że w najbliższych latach stymulatorem popytu będzie cyfrowa transformacja. Nowe uwarunkowania przyczynią się do wzrostu popularności procesów hybrydowego przetwarzania transakcji i analiz, z którym nie poradzą sobie tradycyjne rozwiązania. Kolejnym czynnikiem, który powoduje wzrost zainteresowania systemami in-memory, jest omnichannel. Co ciekawe, GridGain, jako jeden z nielicznych graczy uczestniczących w wyścigu na rynku aplikacji, już na siebie zarabia, a więc – innymi słowy – nie potrzebuje inwestorskiej kroplówki. A to najlepszy dowód na to, że ten biznes ma sens i jest rozwojowy.
Artykuł Wyścig z danymi w tle: liczy się każda milisekunda pochodzi z serwisu CRN.
]]>Artykuł Backup z migawkami chroni dane nawet przed ransomware’em pochodzi z serwisu CRN.
]]>Funkcja migawki polega na tym, że na bieżąco kopiowane są tylko te bloki danych, w których faktycznie zapisano jakieś zmiany (nowe bądź nadpisane pliki). To gwarantuje skuteczne zabezpieczenie wszystkich kluczowych danych, a przy tym optymalne wykorzystanie przestrzeni dyskowej serwera NAS. Migawki mają również inne zalety, chociażby wersjonowanie plików, dzięki czemu bez problemu można przywrócić dowolną wersję pliku, np. sprzed godziny, dwóch albo trzech.
Producent zwraca też uwagę na optymalną wydajność zapisu oraz sprawnie działający system przywracania danych po awarii. Dla użytkowników biznesowych są to kluczowe kwestie, ponieważ możliwość błyskawicznego odtworzenia danych i szybkiego powrotu do pracy po awarii jest dla nich nie mniej istotna niż funkcje ochrony związane z tworzeniem kopii zapasowych.
Kolejnym elementem wyróżniającym serwery NAS marki QNAP są ich funkcje wirtualizacyjne, czyli możliwość tworzenia na nich wielu maszyn wirtualnych (VM) i zarządzania nimi. Dzięki dostępnej w AppCenter aplikacji Virtualization Station można tworzyć maszyny wirtualne dla różnych systemów operacyjnych, takich jak Windows, Linux, UNIX czy Android. W rezultacie urządzenie nie tylko zapewnia archiwizowanie i wykonywanie kopii zapasowych danych, ale także oferuje zaawansowane funkcje serwera sieciowego. Tym samym użycie Virtualization Station prowadzi do konsolidacji istniejącej infrastruktury IT, ograniczając koszty związane z zakupem dodatkowego sprzętu.
Aplikacja Virtualization Station oferuje funkcję migawki do rejestrowania stanu systemu maszyny wirtualnej w ustalonym punkcie czasu. W przypadku awarii VM można szybko powrócić do momentu wykonania migawki, zapewniając ciągłość działania systemu operacyjnego.
Korzystający z Virtualization Station mają pełen wgląd we wszystkie procesy i zaplanowane zadania dla kopii zapasowej i przywracania VM. Można ręcznie inicjować wykonanie lub wstrzymanie zadania, zaplanować kopię zapasową i określić maksymalną liczbę jej wersji, aby zoptymalizować wykorzystanie przestrzeni dyskowej. Aplikacja umożliwia tworzenie kopii zapasowych aktywnych maszyn wirtualnych bez ich wyłączania, zaś migawki oryginalnych VM mogą być zachowane i przywrócone do każdego punktu w czasie nawet po przywróceniu maszyny wirtualnej. Szyfrowanie podczas transmisji zabezpiecza kopię zapasową i odzyskiwanie VM.
Funkcji migawki i rejestrowania stanu systemu maszyny wirtualnej warto używać przed pobraniem aplikacji z nieznanych źródeł lub zainstalowaniem potencjalnie ryzykownych aplikacji. W przypadku zainfekowania maszyny wirtualnej wirusami lub wystąpienia losowych awarii systemu maszynę wirtualną można łatwo przywrócić do stanu z ostatniej migawki.
Prostą a jednocześnie bardzo skuteczną obroną przed ransomware’em jest częste kopiowanie plików, które mają być chronione, na urządzenia pamięci masowej. W ten sposób firmy mogą zabezpieczać swoje dane, żeby w razie ataku móc łatwo je odzyskiwać i unikać przestojów. Serwer NAS marki QNAP sprawdzi się w roli centrum backupu, oferując zaawansowane funkcje sporządzania kopii zapasowych. Dodatkowo bazujący na Linuksie system operacyjny QTS jest w porównaniu z maszynami wykorzystującymi Windows mniej narażony na ataki. Co więcej, dzięki natywnej i niezależnej od systemu plików obsłudze funkcji robienia migawek w ustalonych punktach czasu sprzęt QNAP-a jest niezawodnym rozwiązaniem do backupu, umożliwiającym szybkie wykonywanie kopii zapasowych oraz odzyskiwanie ważnych plików i danych systemowych.
Artykuł Backup z migawkami chroni dane nawet przed ransomware’em pochodzi z serwisu CRN.
]]>Artykuł Bezcenne dane z monitoringu pochodzi z serwisu CRN.
]]>Dlatego w systemach wideomonitoringu konieczne jest stosowanie specjalnych dysków, wyróżniających się tym, że ich firmware oraz mechanika zostały przystosowane do tych niełatwych zadań. Wbudowane oprogramowanie musi zapewnić płynność zapisu danych i – jeśli zajdzie taka konieczność – ich równoległego odczytu. Ale równie ważna jest wytrzymałość napędu, gdyż pracuje on bez przerwy (zwykłe dyski są przystosowane do pracy przez 8 godzin na dobę przez 5 dni w tygodniu) i musi zapisać ponad 100 TB danych w ciągu roku. Co więcej, tego typu napędy muszą być przystosowane do pracy w macierzy dyskowej z pełnym obciążeniem i przyjmować dane z wielu kamer jednocześnie.
Mechanizm klasycznych dysków desktopowych zapewnia trwałość obliczoną na transfer (zapis i odczyt) wynoszący ok. 60 TB danych rocznie. Tymczasem w średniej wielkości środowisku wideo-
monitoringu to za mało. Przykładowo dla sześciu kamer rejestrujących przez całą dobę obraz o rozdzielczości 8 megapikseli i generujących strumień wideo w standardzie PAL H.265 transfer danych wyniesie:
– dziennie – 259 GB,
– miesięcznie – 7,8 TB,
– rocznie – 95 TB.
Odporne dyski przeznaczone do pracy w systemach monitoringu Seagate produkuje już od ponad 10 lat. W 2016 r. wprowadził od oferty ich siódmą generację: SkyHawk. Wbudowane w nie oprogramowanie firmware ImagePerfect zostało zoptymalizowane pod kątem rejestrowania materiałów filmowych w wysokiej rozdzielczości z nawet 64 kamer – w odpowiedni sposób kolejkuje dane do zapisu, aby nie utracić żadnej klatki nagrania. Dzięki temu zastosowany firmware zwiększa trwałość napędów nawet o 30 proc. w porównaniu z wytrzymałością tradycyjnych dysków komputerowych.
Maksymalny limit obciążenia dla dysków SkyHawk wynosi 180 TB rocznie. To trzykrotnie więcej niż w przypadku zwykłych napędów przeznaczonych do komputerów stacjonarnych. Dyski te zostały przystosowane do wykorzystania w coraz popularniejszych sieciowych rejestratorach wideo (Network Video Recorder) oraz podłączanych bezpośrednio do systemów monitoringu macierzach dyskowych RAID. Napędy SkyHawk wyposażono w specjalne czujniki wykrywające drgania powstające wskutek ruchu obrotowego i mechanizm ich kompensacji. Wibracje są szczególnie niebezpieczne dla dysków pracujących w grupie – możliwość ich wyeliminowania zapewnia dłuższy czas eksploatacji dysku i minimalizuje ryzyko awarii. Na trwałość dysków firmy Seagate pozytywnie wpływa też niskie zużycie energii elektrycznej oraz zmniejszona emisja ciepła.
Seagate ma w ofercie siedem modeli dysków SkyHawk: o pojemności 1, 2, 3, 4, 6, 8 i 10 TB. Napędy o pojemności od 1 do 3 TB mogą być instalowane w rejestratorach mieszczących od 1 do 8 dysków, a pozostałe także w większych modelach, mieszczących nawet 64 nośniki.
Wszystkie dyski są objęte 3-letnią gwarancją. Seagate umożliwia także skorzystanie z opcjonalnej 3-letniej usługi odzyskiwania danych Rescue Recovery Service, świadczonej w laboratoriach producenta. Jest realizowana niezależnie od tego, w jaki sposób doszło do utraty danych (działanie wirusa, naruszenie struktury logicznej systemu plików, mechaniczna awaria napędu, zalanie, upadek lub celowe zniszczenie dysku z monitoringu przez złodzieja w sklepie).
Autoryzowanymi dystrybutorami dysków SkyHawk w Polsce są: AB, ABC Data, ALSO i Tech Data.
Dodatkowe informacje:
Marcin Kaczor, Territory Sales Representative, Seagate,
Artykuł powstał we współpracy z firmą Seagate.
Artykuł Bezcenne dane z monitoringu pochodzi z serwisu CRN.
]]>Artykuł Dane coraz bliżej ludzi pochodzi z serwisu CRN.
]]>– Osiemdziesiąt procent czasu związanego z analizą danych pochłania ich przygotowanie. Duży bank, który wdrażał nasze rozwiązanie, korzystał ze 136 różnych systemów Business Intelligence – mówi Adam Wilson, CEO firmy Trifacta.
Z kolei Scott Holden, wiceprezes ds. marketingu w ThoughtSpot, przywołuje przykład instytucji Primary Capital Mortgage. Wdrożenie tam systemu oferowanego przez jego firmę skróciło czas rozpatrywania wniosków pożyczkowych przez przedstawicieli handlowych z 2 godzin do… 5 minut dziennie, zaś cały zespół zaoszczędził 600 godzin w skali miesiąca. Nic dziwnego, że po rozwiązania tego typu, dostarczane przez szerzej nieznane firmy, coraz częściej sięgają globalne koncerny, m.in.: General Electric, Ford, Nordea, LinkedIn czy PepsiCo.
W erze ogromnych zbiorów danych wielu menedżerów niepokoi ich lawinowy przyrost. Swoją uwagę koncentrują przede wszystkim na sposobach przechowywania i ochrony danych. Inny punkt widzenia prezentuje Trifacta, która specjalizuje się w porządkowaniu cyfrowych zasobów.
– To proces składający się z kilku etapów. Surowe dane należy poddać obróbce, polegającej na ich strukturyzacji, czyszczeniu, wzbogaceniu, walidacji oraz publikacji – Bertrand Cariou, Senior Director Solutions & Partners w kalifornijskiej firmie Trifacta.
Zasoby cyfrowe pochodzą z wielu źródeł: mediów społecznościowych, transakcji, chatów, call center. Działalność firmy budzi nieodparte skojarzenia z destylacją ropy naftowej. Surowa ropa nie nadaje się do wykorzystania i dopiero odpowiednie procesy technologiczne sprawiają, że uzyskuje się z niej olej napędowy bądź benzynę. Nie inaczej jest z danymi. Trifacta, aby oczyścić dane, wykorzystuje uczenie maszynowe (machine learning).
Jednym z założycieli tej firmy jest Joseph Hellestrein, profesor informatyki z Berkley, od lat badający wykorzystanie systemów „danocentrycznych” w procesach obliczeniowych. W 2010 r. magazyn „Fortune” umieścił Hellestreina na liście 50 najbardziej inteligentnych ludzi w branży nowych technologii. Wiele wskazuje, że naukowiec z Kalifornii ma również nosa do biznesu. Analitycy Gartnera przewidują, że najbliższe lata przyniosą wzrost popytu na oprogramowanie przeznaczone do „czyszczenia danych”. W 2019 r. ten segment rynku ma osiągnąć wartość 1 mld dol., a skumulowany roczny wskaźnik wzrostu ma wynieść 16,6 proc. Na razie z tego typu rozwiązań korzysta ok. 5 proc. przedsiębiorstw.
W tegorocznym raporcie Forrestera Trifacta została uznana za lidera wśród dostawców rozwiązań do przygotowywania danych, wyprzedzając SAS czy Oracle’a. Oprogramowanie docenili także eksperci Google’a. Gigant z Mountain View włączył elementy systemu Trifacta do Google Cloud Dataprep. Takie rozwiązanie umożliwia analitykom zbadanie i przygotowanie różnych zestawów danych w obrębie Google Cloud Platform.
Warto dodać, że systemu Trifacta Data Wrangling używa ponad 4,5 tys. firm, w tym Royal Bank of Scotland, Santander, PepsiCo, Walmart czy LinkedIn.
– Około 70 proc. naszych klientów w Europie stanowią banki oraz firmy ubezpieczeniowe – podkreśla Bertrand Cariou.
Produkt dostępny jest w trzech wersjach, w tym również jako freeware, przeznaczony dla odbiorców indywidualnych bądź małych firm.
– Szef dużego koncernu pobrał naszą aplikację i zaczął ją testować. Po kilku dniach wezwał do siebie kierownika działu informatycznego i zlecił mu wdrożenie profesjonalnej wersji Trifacta Data Wrangling – cieszy się Bertrand Cariou.
Wraz z ujawnieniem przed kilku laty skandalu wokół przejęcia Autonomy przez HP inwestorzy zaczęli chłodnym okiem patrzeć na startupy tworzące oprogramowanie do wyszukiwania danych. Jednak dostawcy systemów wyszukiwawczych dla biznesu powoli wracają do łask. W ubiegłym roku byliśmy świadkami ciekawej transakcji, która w Polsce przeszła bez echa. Cisco przejęło startup Synata, oferujący usługę wyszukiwania danych z aplikacji umieszczonych w chmurze, m.in. Google Mail, One Drive, Office 365 Box, Dropbox czy Salesforce.
Na horyzoncie pojawili się też młodzi gracze, którzy potrafią przekonać do swoich pomysłów właścicieli funduszy venture capitals. Choć firma Waterline Data działa zaledwie od 2013 r., zdążyła pozyskać od inwestorów 23 mln dol.
– Chcemy łączyć odpowiednich ludzi z odpowiednimi danymi. W tym celu stworzyliśmy platformę Waterline Smart Data Catalog – mówi Alex Gorelik, CEO i założyciel startupu.
Oprogramowanie automatycznie wykrywa dane, a następnie je układa i tworzy katalog. W rezultacie użytkownicy szybko zyskują dostęp do cyfrowych zasobów niezbędnych w działalności biznesowej. Platforma Waterline Data rozwiązuje problem związany z funkcjonowaniem tzw. ciemnych danych. Są to aktywa informacyjne, które organizacje gromadzą i przechowują, ale nie potrafią ich użyć do konkretnych celów.
– Nasz typowy klient przyznaje, że dysponuje potężnym zbiorem danych, ale nie ma zielonego pojęcia, jak z niego korzystać – mówi Kaycee Lai, COO Waterline Data.
Największym projektem realizowanym przez ten startup jest wdrożenie w instytucji finansowej CreditSafe, która ma 14 biur w różnych regionach świata oraz gromadzi informacje z ponad 100 krajów. Prace ruszyły w listopadzie ubiegłego roku i mogą potrwać nawet do dwóch lat.
– Oceniając wiarygodność kredytową firmy, musimy uwzględniać lokalne kryteria. Dla przykładu w Meksyku najbardziej istotne czynniki to liczba samochodów i… okien w biurach należących do przedsiębiorstwa – wyjaśnia Angus Gow, CTO w CreditSafe.
Aż czterech spośród siedmiu założycieli kolejnego ciekawego startupu –ThoughtSpot – pochodzi z Google’a. Jak łatwo się domyślić, domeną firmy jest wyszukiwanie danych.
– Należymy do trzeciej fali dostawców rozwiązań Business Intelligence. Jesteśmy czymś w rodzaju „Google’a dla liczb”. Nasz system przeznaczony jest dla zwykłych użytkowników biznesowych, a nie badaczy danych bądź analityków. Jedną z jego cech stanowi prostota. Nie skupiamy się na elementach graficznych, lecz na szybkości działania – tłumaczy Scott Holden, CMO ThoughtSpot.
System penetruje firmowe dane pochodzące z różnych źródeł i w ciągu milisekund dostarcza odpowiedzi na zapytania dotyczące np. poziomu sprzedaży wybranego produktu w Kalifornii, Nevadzie bądź dowolnym zakątku globu. ThoughtSpot w 2017 r. po raz pierwszy trafił do magicznego kwadrantu Gartnera, oceniającego rynek rozwiązań Businness Intelligence i platform analitycznych. Fundusze inwestycyjne wpompowały w ten startup 90,7 mln dol. Co dalej?
– Z wyszukiwarek korzysta około 2 mld mieszkańców całego globu. Nam w zupełności wystarczy 20 mln użytkowników do 2020 r. – mówi Scott Holden.
Jedną z najważniejszych tendencji obserwowanych w świecie biznesu jest wzrost zainteresowania subskrypcjami. Klienci wykupują stały dostęp do usług, czego najlepszym przykładem są bijące w ostatnim czasie rekordy popularności Netflix czy Spotify. Na fali popularności tzw. ekonomii subskrypcji próbuje popłynąć Zuora. Firma działa od 2006 r. i zebrała od funduszy venture capital 250 mln dol.
– Zmiany zachodzące na globalnym rynku mają charakter rewolucyjny, wystarczy spojrzeć chociażby na rynek usług hotelowych, który odczuwa ofensywę Airbnb. Warto także zerknąć na statystyki. W ciągu ostatnich 15 lat z listy Fortune 500 zniknęło 52 proc. firm – tłumaczy David Gee, szef marketingu w Zuora.
Sztandarowym produktem firmy jest system do zarządzania subskrypcjami, aczkolwiek Zuora oferuje też dodatkowe narzędzia służące do analizy predyktywnej. Ich zastosowanie zapewnia analizę zachowań subskrybentów. Na podstawie liczby logowań, a także wielkości zakupów określa się wskaźniki migracji klientów.
– Po wdrożeniu systemu Zuora sprzedajemy 1,5 tys. subskrypcji. Dwa razy więcej niż wcześniej, kiedy korzystaliśmy z innego rozwiązania – zapewnia John Ridding, CEO Financial Times (na liście klientów Zuora widnieją też znane marki, jak Ford, Panasonic, Toshiba, Schneider Electric, General Electric oraz IBM).
Przyszłość usług subskrypcyjnych rysuje się w jasnych barwach. W najbliższych latach firmy ze świata mediów, nowych technologii, a także Internetu rzeczy będą systematycznie rozbudowywać usługi abonamentowe powiązane z urządzeniami.
Artykuł Dane coraz bliżej ludzi pochodzi z serwisu CRN.
]]>Artykuł Bezpieczne dane w NAS-ie pochodzi z serwisu CRN.
]]>Dlatego producenci wszystkich serwerów NAS stanowczo zalecają, aby w trakcie produkcyjnej pracy były one podłączone do zasilacza awaryjnego. Najlepiej, gdyby ów zasilacz był w stanie komunikować się bezpośrednio z serwerem. Wówczas w przypadku braku energii ma możliwość wysłania odpowiedniego komunikatu do serwera i zainicjowania jego bezpiecznego wyłączenia.
Na liście zasilaczy awaryjnych kompatybilnych z serwerami QNAP znajdują się urządzenia większości obecnych na rynku dostawców. Jednak to CyberPower był pierwszym producentem, który uzyskał odpowiedni certyfikat – stało się to już w 2010 r. Amerykański koncern może też pochwalić się największą liczbą certyfikowanych modeli, których poprawna kooperacja z NAS-ami QNAP jest gwarantowana przez ich projektantów.
Jedną z unikalnych cech UPS-ów CyberPower jest to, że dołączana do nich aplikacja PowerPanel Business Edition bez problemu współpracuje z oprogramowaniem firmy VMware. Ma to duże znaczenie, ponieważ dzięki temu zasilacz awaryjny jest w stanie powiadomić hypervisor VMware o występujących kłopotach z zasilaniem i zarekomendować wyłączenie poszczególnych wirtualnych maszyn (a następnie wyłączenie macierzy dyskowej lub serwera NAS, na którym są przechowywane). Oprogramowanie zasilaczy innych producentów najczęściej komunikuje się z wirtualnym środowiskiem nie na poziomie hypervisora, ale poszczególnych maszyn wirtualnych, przez co sam hypervisor nie jest „świadomy” zaistniałego problemu.
Dla firm resellerskich, które są zainteresowane nawiązaniem lub zacieśnieniem współpracy z QNAP-em, producent rozpoczął cykl dwudniowych szkoleń certyfikacyjnych – ich uczestnicy otrzymają status QNAP Certified Partner. Słuchacze sesji treningowych będą mieli okazję zdobyć wiedzę na temat serwerów NAS tej marki, jak również pod okiem certyfikowanego trenera poznać praktyczne możliwości dysków sieciowych. Szkolenie uwzględnia ponadto kwestię rozwiązywania problemów ze sprzętem i jego konfiguracji.
Warsztat obejmuje jeden dzień zajęć teoretycznych oraz jeden praktycznych, zakończony egzaminem online. Szkolenia prowadzone są na serwerach QNAP TS-251, które po zakończeniu zajęć przechodzą na własność uczestnika. Najbliższe warsztaty odbędą się w dniach 8–9 września w Poznaniu, w autoryzowanym centrum treningowym QNAP prowadzonym przez Konsorcjum FEN. Koszt uczestnictwa wynosi 2500 zł. Kalendarz kolejnych spotkań zostanie ogłoszony wkrótce i rozesłany do zarejestrowanych partnerów QNAP. Dodatkowe informacje: lukasz.milic@fen.pl.
Grzegorz Bielawski
Współpraca QNAP z firmą CyberPower i jej dystrybutorem – Konsorcjum FEN – od lat świetnie się układa, co przekłada się na korzyści dla klientów i partnerów obu firm. Użytkownicy otrzymują produkty, których wspólną kompatybilność gwarantujemy, zaś resellerom oferujemy dodatkowy upust w wysokości 10 proc., gdy w ramach jednej transakcji kupią zasilacze CyberPower wraz z serwerami QNAP.
Artykuł Bezpieczne dane w NAS-ie pochodzi z serwisu CRN.
]]>Artykuł Skuteczna ochrona przed atakami APT pochodzi z serwisu CRN.
]]>Każdy atak APT ma kilka faz. Jedną z najważniejszych jest targeting, czyli proces, w trakcie którego atakujący zbiera informacje o celu ataku. Do jego przeprowadzenia często wykorzystywane są kampanie phishingowe i zainfekowane wiadomości pocztowe.
Przykładem rozwiązań, które zapewniają ochronę poczty korporacyjnej przed tego typu działaniami, są systemy z rodziny SonicWALL Email Security. Dzięki nim firmy mają możliwość blokowania poczty zawierającej szkodliwe załączniki czy łącza URL. Rozbudowana sieć GRID (Global Response Intelligent Defense), składająca się z ponad 4 mln węzłów i milionów punktów oceny reputacji, chroni przed infekcją, której źródłem jest wiadomość pocztowa. Oczywiście samo rozwiązanie do monitorowania poczty nie może być wystarczającym zabezpieczeniem, natomiast stanowi ważny element systemu ochrony, ograniczający i utrudniający pierwszą fazę przeprowadzenia ataku APT.
Czym jest atak APT?
APT to skrót charakteryzujący precyzyjnie sprawców ataku oraz sposób, w jaki jest on przeprowadzany.
• Advanced (zaawansowany) – w tym przypadku oznacza to perfekcyjną znajomość metod umożliwiających przeprowadzanie ataku cybernetycznego, ale również szeroką wiedzę na temat technik administrowania całą gamą różnych systemów IT oraz umiejętności tworzenia nowych narzędzi i exploitów wykorzystywanych do wywołania zagrożenia.
• Persistent (rozciągnięty w czasie, trwający) – atakujący przez długi czas przygotowuje się do swojego zadania, a fakt śledzenia, badania, penetrowania środowiska ofiary pozostaje niewykryty przez miesiące lub lata.
• Threat (zagrożenie) – sprawca jest bardzo dobrze zorganizowany, posiada odpowiednie środki do opracowania i przeprowadzenia ataku, jego motywacja i możliwości są bardzo silne.
Gdy przestępcy zdobędą już informacje o celu ataku, przechodzą do fazy, w której wybierane są najkorzystniejsze i najefektywniejsze metody infekowania, a następnie przeprowadzają rekonesans. W trakcie tego etapu ataku APT może nastąpić zainstalowanie i uruchomienie oprogramowania mającego na celu zaciemnienie całego obrazu ataku, przejmowanie kont z szerokimi uprawnieniami, a także zacieranie śladów polegające na wyłączeniu mechanizmów audytu wbudowanych w systemy.
Aby zapobiec tej fazie ataku agresji, Dell Software proponuje przede wszystkim oprogramowanie Change Auditor. Chroni ono sieci bazujące na systemie Windows oraz zapewnia monitorowanie zdarzeń w czasie rzeczywistym, raportowanie i powiadamianie o istotnych zmianach – bez wykorzystywania modułu audytu wbudowanego w system operacyjny. Dzięki centralnej konsoli administrator zyskuje pełny wgląd w to, które systemy są monitorowane, a wszystkie informacje dotyczące zdarzeń związanych z bezpieczeństwem gromadzone są w centralnej bazie audytowej. Rozwiązanie Change Auditor sprawia, że atakujący nie będzie wiedział, iż jego działania rejestrowane są w innym, niż wbudowany moduł audytu Microsoftu, systemie.
Trzy pytania do…
CRN Jak dużą krzywdę są w stanie wyrządzić atakujący w modelu APT?
Mariusz Przybyła Przykładów skutecznie przeprowadzonych ataków APT jest wiele, w tym dużo spektakularnych. Jedynie przypadek zdecydował, że nie powiodła się kradzież prawie miliarda dolarów z konta Banku Centralnego Bangladeszu, utrzymywanego w nowojorskim Banku Rezerwy Federalnej. Tylko dzięki literówce w nazwie odbiorcy i podejrzanie dużej kwocie przelewu udało się zablokować przelanie całej sumy na konta kontrolowane przez przestępców. Pomimo tego ponad 80 milionów dolarów zostało skradzionych, a przelewy były poprawnie zautoryzowane w systemie transakcyjnym Banku Rezerwy Federalnej USA. Prawdopodobnie skradzionych pieniędzy nie uda się odzyskać, a szanse na znalezienie sprawców są znikome. Dlatego tak ważna jest wielopoziomowa ochrona przed zagrożeniami typu APT.
CRN Czy możliwe jest pełne zabezpieczenie?
Mariusz Przybyła Przed atakami typu APT nie ma stuprocentowej ochrony, zresztą modele ich prowadzenia cały czas są modyfikowane przez cyberprzestępców. Natomiast wszystkie wymienione rozwiązania mogą stanowić składnik wielopoziomowej strategii ochrony, utrudniającej atak na firmę oraz umożliwiającej wcześniejsze – niż bez ich użycia – jego wykrycie, również w sytuacji, gdy jego źródła znajdują się wewnątrz przedsiębiorstwa. Rozwiązania Dell Software wyróżnia szybkość wdrożenia i zwrotu poniesionych kosztów zakupu. Dzięki niewielkim nakładom firmy zyskują znacznie lepsze możliwości monitorowania i wykrywania podejrzanych działań, które bywają symptomami poważnych zagrożeń.
CRN Co stanowi największe wyzwanie podczas ataku APT?
Mariusz Przybyła Jedną z najgorszych cech ataku typu APT jest rozciągnięcie w czasie. Cyberprzestępcy starają się zarządzać dostępem do zdobytej sieci w celu kontynuacji ataku. W tej fazie używane są pozyskane wcześniej dane logowania oraz narzędzia niezbędne do kontrolowania dostępu. Również i w tym przypadku rozwiązania takie jak TPAM i Defender stanowią dodatkową barierę, a możliwość śledzenia zdarzeń w czasie rzeczywistym przez oprogramowanie Change Auditor zapewnia wykrycie podejrzanych działań.
Change Auditor jest w stanie szybko poinformować administratorów o zwiększonej liczbie podejrzanych zdarzeń, a tym samym wykryć działania intruza w sieci. Zapewnia proaktywną kontrolę – gromadzi w czasie rzeczywistym wszystkie informacje i prezentuje pełną historię zdarzeń (kto, co, kiedy, gdzie itd.). Tworzy także raporty o aktywności użytkowników – od zalogowania do wylogowania. Udostępnia gotowe raporty, zgodne z takimi regulacjami jak SOX czy PCI DSS.
Większość atakujących dąży do przechwycenia kont z szerokimi uprawnieniami (tzw. superużytkowników), z których planuje korzystać przez długi czas. Zatem objęcie tych kont kontrolą, która polega na zarządzaniu hasłami do nich oraz okresowej weryfikacji tych haseł, sprawia, że możliwe jest bardzo szybkie (w porównaniu z długością trwania ataku) wykrycie symptomów nieautoryzowanego wykorzystania uprzywilejowanych kont (np. zmiany haseł poza systemem lub tworzenia nowych kont z dużymi uprawnieniami). Taką funkcjonalność zapewnia oprogramowanie z rodziny TPAM – jego proaktywne działanie polega na ochronie dostępu do haseł do tego typu kont. Jest to działanie unikalne i warto zwrócić uwagę klientów na ten właśnie sposób ochrony. Zazwyczaj przedsiębiorstwa wybierają drogę na skróty i wdrażają rozwiązania do nagrywania sesji, ale bez zarządzania hasłami kont uprzywilejowanych.
Dla administratorów oraz pracowników korzystających ze zdalnego dostępu do firmowej sieci Dell proponuje rozwiązanie Defender. Jest to serwer dwuskładnikowego uwierzytelniania, dzięki któremu atakującym utrudnia się dostęp do poufnych informacji.
Dystrybutorem oprogramowania Dell Software w Polsce jest wrocławska firma Quest Dystrybucja. Ma oficjalny status dystrybutora z wartością dodaną (Value Added Distributor) oraz partnera wsparcia technicznego (Support Providing Partner). Oferuje asystę techniczną w realizacji projektów, usługi wdrożeniowe i konsultacyjne, szkolenia oraz sprzedaż licencji oprogramowania Dell Software i odnowy asysty technicznej na terenie Polski. Do dyspozycji partnerów i ich klientów jest też prowadzone przez Quest centrum kompetencyjne w Warszawie.
Dodatkowe informacje:
Mariusz Przybyła,
IAM Solutions Architect, Quest Dystrybucja,
m.przybyla@quest-pol.com.pl,
Artykuł powstał we współpracy z firmami Dell Software i Quest Dystrybucja.
Artykuł Skuteczna ochrona przed atakami APT pochodzi z serwisu CRN.
]]>Artykuł HPE: cztery filary cyfrowej transformacji pochodzi z serwisu CRN.
]]>Przedstawiciele i eksperci Hewlett Packard Enterprise zgodnie wskazują cztery kluczowe obszary transformacji, które zapewniają firmom i organizacjom przyspieszenie oraz technologiczny skok w przyszłość. Pierwszym takim obszarem jest…
Już dziś różnorodność aplikacji oraz ogrom danych wymaga różnych modeli działania dla osiągnięcia poszczególnych celów biznesowych. Ponadto coraz częściej szybkość dostarczania nowych produktów i usług decyduje o przewadze konkurencyjnej. Idealna infrastruktura – taka, która może podołać temu zadaniu – powinna zatem łączyć nowe rozwiązania z tradycyjnym IT, a także wykorzystywać prywatne i publiczne chmury danych, aby uzyskać maksymalną elastyczność oraz efektywność ekonomiczną. Przykładem takiego rozwiązania jest HPE Helion Hybrid Infrastructure, zastosowana z sukcesem przez 20th Century Fox. W tym przypadku HPE Helion Cloud System zwiększył przepustowość sieci ponad czterokrotnie, przyspieszył procesy produkcji i dystrybucji filmów o 38 proc. oraz zmniejszył koszty operacyjne funkcjonowania infrastruktury o 88 proc. w porównaniu z poprzednimi, tradycyjnymi rozwiązaniami.
Cyberataki to nie kwestia „czy do nich dojdzie?”, ale „kiedy”. Dlatego już teraz należy myśleć o tym, jak zabezpieczyć swoją firmę i zminimalizować straty wywołane niepożądanymi, wrogimi działaniami. Minęły już czasy, w których specjaliści od bezpieczeństwa informacji toczyli boje z samotnymi hakerami, a pracownikom wystarczał zwykły firewall. Cyberprzestępcy działają w sposób zorganizowany, a szerokie wykorzystanie technologii mobilnych, chmur danych oraz Internetu rzeczy powoduje, że ich możliwości są dużo większe niż wcześniej. O jakiej skali mówimy? Intranet US Marines wyposażony w HPE Security Solutions działa w takich warunkach, gdzie odnotowuje się 231 mln prób nieautoryzowanych wejść, 26 mln wykrytych zagrożeń oraz 3,5 mln sztuk spamu… w ciągu zaledwie jednego miesiąca.
Wiedza to klucz do biznesowego sukcesu przedsiębiorstwa. Każda działalność generuje ogromną ilość danych. Kryją się w nich informacje umożliwiające dokonanie przełomowych odkryć, dzięki którym powstają doskonalsze usługi, produkty, a czasami całe branże. Sukces zależy od tego, czy wiemy, jakie pytanie zadać, jakie dane analizować i jak wykorzystywać uzyskane spostrzeżenia, a także jak szybko jesteśmy w stanie tego dokonać i zastosować wyniki w praktyce. Na przykład popularny BlaBlaCar operuje na danych dostarczanych przez 20 mln aktywnych użytkowników oraz 4 mln zdarzeń każdego dnia. Zarządzanie taką ilością informacji, analityka oraz precyzyjne raportowanie możliwe jest m.in. dzięki HPE Vertica.
Wszyscy wiemy, jak ważne dla marki są pozytywne doświadczenia klientów i użytkowników. W przyszłości doświadczenie stanie się istotą marki nie tylko z punktu widzenia zadowolonych konsumentów, ale także partnerów, kontrahentów i pracowników. Nowa produktywność to zdolność do szybkiego, sprawnego i bezpiecznego działania w każdych warunkach, owocującego dostarczaniem produktów i usług niezmiennie wysokiej jakości. To coś, czego nie można osiągnąć dzięki rozwiązaniom projektowanym dla środowisk stacjonarnych. Przyszłość jest mobilna! HPE Aruba Networks udowadnia, jak wiele można zyskać, na przykładzie rozwiązania Workplace Productivity Solution zastosowanego w firmie ubezpieczeniowej American Fidelity Assurance. W 100 proc. mobilne środowisko z marszu umożliwiło oszczędności rzędu 700 tys. dol. na samej tylko infrastrukturze oraz zmniejszyło koszty operacyjne o 60 tys. dol. w przeliczeniu na jedną lokalizację. Czysty zysk!
Zapoznaj się z najnowszymi rozwiązaniami Hewlett Packard Enterprise, które zapewnią twojemu biznesowi przyspieszenie i mocny start w nowy wymiar technologicznej konkurencji!
Więcej informacji na http://strefahpe.pl.
Artykuł HPE: cztery filary cyfrowej transformacji pochodzi z serwisu CRN.
]]>Artykuł SAP utworzy nowy dział pochodzi z serwisu CRN.
]]>Artykuł SAP utworzy nowy dział pochodzi z serwisu CRN.
]]>