Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.
]]>Flagowym produktem Strong Box Data jest platforma StrongLink, przeznaczona do zarządzania zasobami przechowywanymi na heterogonicznych systemach pamięci masowej. System obsługuje pliki znajdujące się zarówno w chmurze publicznej, jak i środowisku lokalnym, radzi też sobie z różnymi rodzajami nośników – twardymi, pamięciami flash oraz taśmami. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub rozwiązaniach sprzętowych. Z platformy korzysta Niemieckie Centrum Opracowań Klimatologicznych, które gromadzi 150 PB danych na pięciu bibliotekach taśmowych pochodzących od różnych producentów.
– Organizacje prowadzące operacje na dużych zbiorach danych często zadają sobie pytania: co mam, gdzie to aktualnie się znajduje, w jakim miejscu powinno być umieszczone, jak korzystają z tego pracownicy. Zastosowanie naszej platformy powoduje, że tego typu dylematy znikają – tłumaczy Floyd Christofferson, CEO StrongBox Data.
Dane niczym zombie
O dane klientów korporacyjnych ze Strong Box Data konkuruje startup Komprise. Platforma Komprise Intelligent Data Management służy do obsługi nieustrukturyzowanych danych, a także ich archiwizacji, analizy, umożliwiając dostęp do plików oraz obiektów umieszczonych w chmurach publicznych bądź lokalnych centrach danych. System nie wykorzystuje żadnych agentów, bazuje na otwartych standardach i zapewnia natywny dostęp z dowolnej lokalizacji.
– Naszym celem jest uzmysłowienie menedżerom, że istnieje zjawisko, które określamy jako „dane zombie”. Firmy niepotrzebnie tracą mnóstwo czasu, energii i pieniędzy na przechowywania i przetwarzania zbędnych zasobów cyfrowych – tłumaczy Krishna Subramanian, COO Komprise.
Założyciele tego kalifornijskiego startupu z siedzibą w Campbell twierdzą, że mnogość rozwiązań oferowanych na rynku pamięci masowych pogłębia chaos, a firmy popełniają kardynalne błędy, takie jak kupowanie nadmiarowej przestrzeni dyskowej czy traktowanie chmury jako taniej szafki do przechowywania plików. Niektórzy klienci Komprise przyznają, że udało im się zredukować koszty związane z backupem oraz przechowywaniem informacji nawet o 70 proc., inni wskazują na kilkunastokrotne przyspieszenie procesu migracji danych. Krishna Subramanian przyznaje, że trwająca pandemia nie wpływa negatywnie na prowadzony biznes. Wręcz przeciwnie, w ubiegłym roku pojemność nieustrukturyzowanych danych usługodawców, którymi zarządza Komprise wzrosła o 380 proc. Na liście klientów tej firmy znajduje się wiele znanych koncernów, w tym Pfizer, ATT, Qualcomm czy Raytheon. Niewykluczone, że już wkrótce firma pozyska nowych klientów na Starym Kontynencie – w styczniu podpisała ogólnoeuropejską umowę z Tech Datą.
(De)centralizacja w hurtowniach danych
Przyrost danych to tylko jedno z wyzwań stojących przed dużymi przedsiębiorstwami. Nie mniej uciążliwe staje się zapanowanie nad złożoną infrastrukturą, która sprawia, że firmy gubią się w gąszczu cyfrowych zasobów. W efekcie, według IDC, pracownicy mogą spędzać nawet ponad 70 proc. swojego czasu na wyszukiwanie i przygotowywanie danych do analizy.
– Dlatego ze swojej strony zamierzamy zapewnić naszym klientom elastyczność w realizacji zadań analitycznych w oparciu o ich środowiska lokalne i chmurowe. Wiele organizacji zainwestowało poważne środki finansowe w infrastrukturę lokalną, aby zarządzać swoimi danymi. Nie zamierzają z tego zrezygnować, a przenoszenie wszystkiego do chmury nie ma sensu. Zauważamy, że firmy stawiają na hybrydowe podejście do analityki – mówi George Shahid, CEO Datameer.
Ta kalifornijska firma oferuje chmurową platformę obsługującą pełny cykl życia danych – od ich odkrywania, poprzez analizę i transformację z różnych źródeł, aż po katalogowanie artefaktów analitycznych. Datameer działa na rynku od dwunastu lat i skupia przede wszystkim klientów z sektora finansowego, w tym HSBC, Deutsche Bank, Citi czy American Express. Najnowsze rozwiązanie Datameer Spotlight zapewnia użytkownikom dostęp do dowolnego źródła danych – zarówno w środowisku lokalnym, jak i chmurze, w tym hurtowni danych i jezior danych oraz dowolnych aplikacji. Platforma pozwala łączyć i tworzyć nowe wirtualne zestawy danych za pośrednictwem interfejsu wizualnego (lub edytora kodu SQL dla bardziej zaawansowanych), bez konieczności replikacji danych.
– Obecne podejście do wykorzystania informacji do celów analitycznych nie zmienia się od prawie trzech dekad. Organizacje przesyłają wszystkie dane przedsiębiorstwa do scentralizowanej hurtowni danych lub jeziora danych, co jest kosztownym i czasochłonnym procesem – zauważa George Shahid.
Udane debiuty takich firm jak Snowflake czy Fivetran, oferujących usługi w chmurze publicznej, ożywiły nieco skostniały rynek pamięci masowych. Dzięki temu użytkownicy nie muszą inwestować w nadmiarową pamięć masową i dokonywać lokalnych obliczeń. Niestety, podstawowy paradygmat duplikowania i centralnego przechowywania danych, pozostaje taki sam. Datameer zachęca przedsiębiorców do podjęcia odważniejszych kroków. Ale trudno powiedzieć, czy niewielkiej firmie uda się przełamać hegemonię wymienionych wcześniej firm i weteranów, takich jak Oracle, Teradata czy Informatica.
SaaS: dane bez ochrony
Migracja zasobów do chmury publicznej nie zwalnia szefów działów IT od odpowiedzialności za dane. Szczególnie ciekawym przypadkiem jest rynek SaaS. Microsoft, AWS czy Salesforce zobowiązują się do zapewniania dostępności usług, zachowania prywatności przechowywanych informacji czy fizycznej ochrony infrastruktury. Nie biorą natomiast odpowiedzialności za tzw. zagrożenia wewnętrzne, czyli przypadkowe skasowanie danych, sabotaż ze strony pracowników czy cyberataki. Niestety, większość użytkowników nie zdaje sobie z tego sprawy, aż do czasu pierwszej utraty danych. Dostawcy usług nie kwapią się zbytnio do tego, żeby uświadamiać klientów, tym bardziej, że na nieroztropnych użytkownikach można nieźle zarobić. Na przykład Salesforce każe sobie płacić za odzyskanie danych 10 tys. dol., a czas oczekiwania na realizację usługi to 6 do 8 tygodni.
To wszystko nie zmienia faktu, że segment systemów backupu dla SaaS rozwija się w ostatnim czasie dość dynamicznie. Największe możliwości wyboru mają użytkownicy Office 365, którzy mogą korzystać z rozwiązań takich producentów jak Acronis, Barracuda, Commvault czy Veeam. Od niedawna do tego grona dołączył amerykański startup HYCU. Pierwszym produktem HYCU było oprogramowanie do backupu systemów Nutanix, które zadebiutowało na rynku niespełna trzy lata temu. Było to unikalne rozwiązanie na rynku i żaden z producentów nie zdecydował się na podobny krok. Od tego czasu ten startup, z siedzibą w Bostonie, powoli rozwija ofertę dokładając narzędzia do backupu dla Google Cloud, AWS czy Microsoft Azure. Najnowszy produkt HYCU Protégé dla Microsoft Office 365 zapewnia natywne tworzenie kopii zapasowych i odzyskiwanie w chmurze dla Outlooka, Teams, SharePointa, OneDrive’a i OneNote’a. W segmencie systemów do backupu Office 365 robi się więc coraz bardziej tłoczno.
Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.
]]>Artykuł Startup porządkuje wielkie zbiory danych pochodzi z serwisu CRN.
]]>– Wokół ETL dzieje się wiele ciekawych rzeczy. Bardzo szybko rośnie popularność hurtowni danych oferowanych w modelu usługowym. Spadają też ceny nośników – o ile w 2000 roku GB pamięci masowej kosztował 7,70 USD, o tyle w bieżącym roku jest to zaledwie 0.02 USD. Niestety, problem polega na tym, że rozwój samych systemów ETL zatrzymał się gdzieś pod koniec lat 90. – przyznaje George Fraser, dyrektor generalny firmy Fivetran.
Nienadążające za tempem zmian systemy w ślamazarnym tempie wykonują czynności związane z czyszczeniem, integracją czy odwzorowaniem danych. Z kolei inżynierowie zamiast pracować nad złożonymi projektami, tracą czas na obrabianie cyfrowych zasobów. Fivetran obiecuje zmienić istniejący stan rzeczy. Startup opracował rozwiązania pozwalające szybko przenosić dane z repozytoriów do hurtowni danych działających w modelu chmurowym oraz systemów analitycznych. Fivetran jest kompatybilny z ponad setką systemów w tym Salesforce, Zendesk, Marketo, Oracle, Snowlake, Amazon Aurora, Azure SQL czy NetSuite. George Fraser przyznaje, że oprócz uniwersalności, atutem systemu rozwiązania jest automatyzacja, która wyróżnia produkt na tle największych konkurentów: Informatica i SnapLogic.
– Dane automatycznie są przesyłane z repozytorium do hurtowni danych. Konfiguracja systemu trwa około 90 sekund. Za kulisami tej operacji kryją się złożone mechanizmy, ale nie chcemy ich odsłaniać przed klientami. – tłumaczy George Fraser.
Fivetran powstał w 2012 roku, ma ponad 600 klientów oraz 110 pracowników. Główna siedziba firmy znajduje się w Oakland, zaś biuro EMEA w Dublinie. Jak do tej pory startup otrzymał od funduszy venture capital 15 mln dolarów. Ale wiele wskazuje na to, że zainteresowaniem tą szerzej nieznaną firmą może wzrosnąć, dzięki umowie podpisanej na początku kwietnia z Google. System Fivetran ułatwi firmom korzystanie z Google BigQuery, działającej w chmurze hurtowni danych, zoptymalizowanej pod kątem analizy dużych zbiorów danych. Użytkownicy zamiast tworzyć złożone rozwiązania umożliwiające BigQuery dostęp do zewnętrznych źródeł danych, dzięki wtyczkom Fivetran uzyskują automatyczny dostęp.
– W obecnych czasach przechowywanie danych nawet dla średniej wielkości firmy nie stanowi żadnego problemu. Cała trudność polega na tym, aby dotrzeć do potrzebnych informacji. – podsumowuje George Fraser.
Artykuł Startup porządkuje wielkie zbiory danych pochodzi z serwisu CRN.
]]>