Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/komprise/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Tue, 12 Apr 2022 09:31:32 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Wielka migracja danych https://crn.sarota.dev/artykuly/wielka-migracja-danych-3/ Thu, 07 Apr 2022 08:15:00 +0000 https://crn.pl/?p=274557 Wiele firm musi odchudzić własne serwerownie i ogarnąć panujący w nich chaos. Nie jest to łatwe, chociaż na rynku pojawiają się nowe narzędzia ułatwiające uporanie się z tym zadaniem.

Artykuł Wielka migracja danych pochodzi z serwisu CRN.

]]>
Przedsiębiorstwa zmagają się z ciągłym przyrostem danych nieustrukturyzowanych. Choć nie jest to nowe zjawisko, część firm sobie z nim nie radzi. Dzieje się tak z kilku powodów. Po pierwsze ze względu na duże zróżnicowanie rozwiązań do przechowywania i przetwarzania danych, a po drugie problemy z oszacowaniem potrzeb z zakresu zarządzania danymi. Do tego dochodzi nabieranie się na marketingowe sztuczki dostawców usług chmurowych czy wreszcie nadmierne rozproszenie użytkowników.

Te dwa ostatnie problemy nasiliły się w czasie pandemii, kiedy trzeba było w ekspresowym tempie zapewnić dostęp do informacji osobom pracującym w domach. Jednym z najprostszych, choć niekoniecznie najtańszych sposobów było wykupienie usług Amazona czy Microsoftu. To jednak zrozumiała decyzja, jeśli wziąć pod uwagę, że w gorącym okresie nie było czasu na wnikliwe analizy. I choć pośpiech nie jest najlepszym doradcą, to nigdy nie jest za późno, aby sporządzić bardziej wnikliwe kalkulacje i lepiej dostosować się do zmieniających warunków. Jest to możliwe nie tylko dzięki elastyczności usług chmurowych, ale także narzędziom ułatwiającym procesy związane z przetwarzaniem i przechowywaniem danych. Co ważne, dostawcami tego typu rozwiązań są na ogół bardzo młode firmy, które mają świeże spojrzenie na kwestie związane z zarządzaniem plikami i obiektami.

Pliki w chmurze

Nasuni jest jednym z wielu startupów szukających sobie miejsca w segmencie chmury hybrydowej. To rynek, przed którym rysują się bardzo ciekawe perspektywy. Analitycy z MarketsandMarkets prognozują, że w 2023 r. jego wartość sięgnie 97 mld dol. (w 2018 było to 44 mld dol.). Nasuni postawiło sobie za cel zastąpienie konwencjonalnych serwerów i systemów NAS usługami przechowywania plików w chmurze. Szefowie startupu przekonują, że przechowywanie danych nieustrukturyzowanych w chmurze publicznej wymaga specjalnych rozwiązań. Najwięcej trudności sprawia obsługa plików przechowywanych w chmurze mocno oddalonej od użytkowników. Nasuni chce zoptymalizować produktywność pracowników, jednocześnie zmniejszając koszty i oszczędzając zasoby IT.

W tym celu firma opracowała globalny system plików UniFS, który integruje się z obiektową pamięcią masową i może być skalowany bez ograniczeń w ramach Amazon, Azure lub Google Cloud. System realizuje takie funkcje jak tworzenie kopii zapasowych, synchronizacja plików czy odzyskiwanie danych po awarii. Według specjalistów Nasuni ostatni z wymienionych procesów może trwać jedynie 15 minut.

Nasuni obsługuje najważniejsze protokoły, w tym SMB (CIFS), NFS, FTP/ /SFTP i HTTPS. Użytkownicy uzyskują dostęp do plików za pośrednictwem Nasuni EdgeAppliance, czyli maszyn wirtualnych lub urządzeń x86 z zainstalowanym oprogramowaniem tej marki. Obszar, w którym porusza się amerykański startup, ma spory potencjał.

Analitycy IDC szacują, że w latach 2021–2025 średnia stopa wzrostu ze sprzedaży usług związanych z przechowywaniem plików w chmurze wyniesie 41 proc. i w 2025 r. osiągnie wartość 4 mld dol., czyli niemal pięć razy więcej niż w ubiegłym roku. Warto podkreślić, że w przypadku pamięci obiektowej prognozy mówią o 21 proc. wzroście, aczkolwiek wielkość uzyskiwanych obrotów zdecydowanie przekroczy te uzyskiwane w segmencie przechowywania plików.

– Chcemy za kilka lat zgarniać z rynku około 5 miliardów dolarów rocznie. Jak na razie możemy pochwalić się 120-procentową stopą wzrostu przychodów. Co istotne, około 30 procent naszych wpływów pochodzi ze współpracy z wielką trójką: Amazonem, Microsoftem i Google’em – mówi Paul Flanagan, CEO Nasuni.

Co ciekawe, Nasuni jednocześnie konkuruje z wymienionymi koncernami. Swojej szansy upatruje w tym, że Amazon czy Microsoft koncentrują się na usługach przechowywania danych bazujących na pamięci obiektowej, a ich oferta w zakresie plików nie pokrywa potrzeb szerokiej grupy odbiorców. Z kolei bardzo ważnym graczem w tym sektorze jest NetApp, z którym Nasuni musi ostro rywalizować o klientów. Zresztą Paul Flanagan przyznaje, że około 40 proc. przychodów jego firmy generują klienci przejęci od konkurencji.

Drugie podejście Davida Flynna

Niewykluczone, że plany Nasuni częściowo pokrzyżuje David Flynn. Ten przedsiębiorca z Kalifornii jako pierwszy wprowadził na rynek nośniki SSD z interfejsem PCI. W 2014 r. jego firma Fusion-io została przejęta za 1 mld dol. przez SanDisk. Niedługo potem Flynn wystartował z nowym projektem Primary Data, a więc platformą do zarządzania danymi (funkcję Chief Scientist pełnił wtedy w tej firmie Steve Wozniak).

Chociaż Primary Data była firmowana przez znane postacie i pozyskała 60 mln dol. od funduszy venture capital, przetrwała jedynie cztery lata. Jednak sam David Flynn nie złożył broni i w 2010 r. założył startup Hammerspace, będący w pewnym stopniu kontynuacją wcześniejszego przedsięwzięcia. Firma opracowała Global Data Environment (GDE), który unifikuje rozproszone silosy plików i obiektów w pojedynczy zasób sieciowej pamięci masowej (NAS). W ten sposób zapewnia się aplikacjom dostęp na żądanie do nieustrukturyzowanych danych w lokalnych chmurach prywatnych, hybrydowych lub publicznych. Idea polega na tym, żeby punkty dostępu do danych były aktualizowane za pomocą metadanych GDE. W rezultacie cyfrowe zasoby są cały czas widoczne i można do nich uzyskać dostęp z dowolnego miejsca.

– Przedsiębiorcy potrzebują rewolucyjnego podejścia do dostępu do danych. Nasze rozwiązanie przełamuje ograniczenia techniczne występujące podczas przechowywania plików. W ten sposób zwalniamy firmowe zespoły IT z niekończącej się pracy, mającej na celu łączenie różnych systemów pamięci masowej – tłumaczy David Flynn.

Z punktu widzenia użytkownika operacja jest prosta, bo wystarczy połączyć się z systemem, aby uzyskać dostęp do wszystkich danych. Przy czym niezależnie od tego, czy znajdują się w lokalnej pamięci masowej w wielu witrynach, na platformie AWS, Azure czy GCP, pliki pojawiają się w folderach tak, jakby znajdowały się na lokalnym serwerze NAS. Dostęp dla użytkowników i aplikacji odbywa się przez NFS lub SMB, a także przez sterowniki CSI, jeśli dane są odczytywane lub zapisywane przez aplikacje uruchomione na platformie Kubernetes.

Jednym z klientów Hammerspace jest kanadyjskie studio animacji Global GFX. Firma zatrudnia animatorów rozsianych po całym świecie. GDE umożliwia im zachowanie ciągłości produkcji, gdy na przykład europejscy pracownicy wylogowują się wieczorem, a koledzy z półkuli zachodniej w tym samym czasie kontynuują pracę.

– To tak, jakby wszyscy byli w tym samym pokoju, mimo że są oddzieleni kilkoma strefami czasowymi – tłumaczy Floyd Christofferson, szef produktu w Hammerspace.

Hammerspace działa w podobnym segmencie rynku co Nasuni czy CTERA, które również zapewniają spójny dostęp do plików w różnych lokalizacjach geograficznych, jednakże obie firmy wykorzystują chmurę publiczną jako miejsce przechowywania danych.

– Zasadniczo różnimy się od naszych konkurentów. Oni skupiają się na infrastrukturze i buforują dane. To, co robimy, to całkowite oddzielenie danych od dowolnej infrastruktury – tłumaczy David Flynn.

Artykuł Wielka migracja danych pochodzi z serwisu CRN.

]]>
Zatopieni w jeziorze danych https://crn.sarota.dev/artykuly/zatopieni-w-jeziorze-danych/ Wed, 14 Apr 2021 08:15:00 +0000 https://crn.pl/?p=256605 Branża IT nie ma problemu z pamięcią masową, ale ma kłopot z zarządzaniem danymi – twierdzą analitycy Gartnera. Na rynku pojawia się coraz więcej rozwiązań umożliwiających uporanie się z tym zadaniem.

Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.

]]>
Nadmiar cyfrowych informacji czasami prowadzi do wręcz komicznych sytuacji. Według IDC firmy oraz instytucje tracą około 20 proc. na tzw. wynalezienie koła, czyli zajmują się analizą danych, które już wcześniej były przedmiotem badań. Oczywiście tempo ich przyrostu różni się w poszczególnych przedsiębiorstwach. Z pewnością jest wyjątkowo szybkie w przypadku firm, które pracują nad innowacyjnymi projektami. Przykładowo, jeden z klientów StrongBox Data prowadzi szeroko zakrojone badania, których celem jest rozwój autonomicznych samochodów. Kiedy obie firmy nawiązały współpracę, dzienny przyrost danych wynosił około 150 TB, aby po jakimś czasie osiągnąć poziom 2 PB.

Flagowym produktem Strong Box Data jest platforma StrongLink, przeznaczona do zarządzania zasobami przechowywanymi na heterogonicznych systemach pamięci masowej. System obsługuje pliki znajdujące się zarówno w chmurze publicznej, jak i środowisku lokalnym, radzi też sobie z różnymi rodzajami nośników – twardymi, pamięciami flash oraz taśmami. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub rozwiązaniach sprzętowych. Z platformy korzysta Niemieckie Centrum Opracowań Klimatologicznych, które gromadzi 150 PB danych na pięciu bibliotekach taśmowych pochodzących od różnych producentów.

– Organizacje prowadzące operacje na dużych zbiorach danych często zadają sobie pytania: co mam, gdzie to aktualnie się znajduje, w jakim miejscu powinno być umieszczone, jak korzystają z tego pracownicy. Zastosowanie naszej platformy powoduje, że tego typu dylematy znikają – tłumaczy Floyd Christofferson, CEO StrongBox Data.

Dane niczym zombie

O dane klientów korporacyjnych ze Strong Box Data konkuruje startup Komprise. Platforma Komprise Intelligent Data Management służy do obsługi nieustrukturyzowanych danych, a także ich archiwizacji, analizy, umożliwiając dostęp do plików oraz obiektów umieszczonych w chmurach publicznych bądź lokalnych centrach danych. System nie wykorzystuje żadnych agentów, bazuje na otwartych standardach i zapewnia natywny dostęp z dowolnej lokalizacji.

     – Naszym celem jest uzmysłowienie menedżerom, że istnieje zjawisko, które określamy jako „dane zombie”. Firmy niepotrzebnie tracą mnóstwo czasu, energii i pieniędzy na przechowywania i przetwarzania zbędnych zasobów cyfrowych – tłumaczy Krishna Subramanian, COO Komprise.

Założyciele tego kalifornijskiego startupu z siedzibą w Campbell twierdzą, że mnogość rozwiązań oferowanych na rynku pamięci masowych pogłębia chaos, a firmy popełniają kardynalne błędy, takie jak kupowanie nadmiarowej przestrzeni dyskowej czy traktowanie chmury jako taniej szafki do przechowywania plików. Niektórzy klienci Komprise przyznają, że udało im się zredukować koszty związane z backupem oraz przechowywaniem informacji nawet o 70 proc., inni wskazują na kilkunastokrotne przyspieszenie procesu migracji danych. Krishna Subramanian przyznaje, że trwająca pandemia nie wpływa negatywnie na prowadzony biznes. Wręcz przeciwnie, w ubiegłym roku pojemność nieustrukturyzowanych danych usługodawców, którymi zarządza Komprise wzrosła o 380 proc. Na liście klientów tej firmy znajduje się wiele znanych koncernów, w tym Pfizer, ATT, Qualcomm czy Raytheon. Niewykluczone, że już wkrótce firma pozyska nowych klientów na Starym Kontynencie w styczniu podpisała ogólnoeuropejską umowę z Tech Datą.

(De)centralizacja w hurtowniach danych

Przyrost danych to tylko jedno z wyzwań stojących przed dużymi przedsiębiorstwami. Nie mniej uciążliwe staje się zapanowanie nad złożoną infrastrukturą, która sprawia, że firmy gubią się w gąszczu cyfrowych zasobów. W efekcie, według IDC, pracownicy mogą spędzać nawet ponad 70 proc. swojego czasu na wyszukiwanie i przygotowywanie danych do analizy.

     – Dlatego ze swojej strony zamierzamy zapewnić naszym klientom elastyczność w realizacji zadań analitycznych w oparciu o ich środowiska lokalne i chmurowe. Wiele organizacji zainwestowało poważne środki finansowe w infrastrukturę lokalną, aby zarządzać swoimi danymi. Nie zamierzają z tego zrezygnować, a przenoszenie wszystkiego do chmury nie ma sensu. Zauważamy, że firmy stawiają na hybrydowe podejście do analityki – mówi George Shahid, CEO Datameer.

Ta kalifornijska firma oferuje chmurową platformę obsługującą pełny cykl życia danych – od ich odkrywania, poprzez analizę i transformację z różnych źródeł, aż po katalogowanie artefaktów analitycznych. Datameer działa na rynku od dwunastu lat i skupia przede wszystkim klientów z sektora finansowego, w tym HSBC, Deutsche Bank, Citi czy American Express. Najnowsze rozwiązanie Datameer Spotlight zapewnia użytkownikom dostęp do dowolnego źródła danych – zarówno w środowisku lokalnym, jak i chmurze, w tym hurtowni danych i jezior danych oraz dowolnych aplikacji. Platforma pozwala łączyć i tworzyć nowe wirtualne zestawy danych za pośrednictwem interfejsu wizualnego (lub edytora kodu SQL dla bardziej zaawansowanych), bez konieczności replikacji danych.

– Obecne podejście do wykorzystania informacji do celów analitycznych nie zmienia się od prawie trzech dekad. Organizacje przesyłają wszystkie dane przedsiębiorstwa do scentralizowanej hurtowni danych lub jeziora danych, co jest kosztownym i czasochłonnym procesem – zauważa George Shahid.

Udane debiuty takich firm jak Snowflake czy Fivetran, oferujących usługi w chmurze publicznej, ożywiły nieco skostniały rynek pamięci masowych. Dzięki temu użytkownicy nie muszą inwestować w nadmiarową pamięć masową i dokonywać lokalnych obliczeń. Niestety, podstawowy paradygmat duplikowania i centralnego przechowywania danych, pozostaje taki sam. Datameer zachęca przedsiębiorców do podjęcia odważniejszych kroków. Ale trudno powiedzieć, czy niewielkiej firmie uda się przełamać hegemonię wymienionych wcześniej firm i weteranów, takich jak Oracle, Teradata czy Informatica.

SaaS: dane bez ochrony

Migracja zasobów do chmury publicznej nie zwalnia szefów działów IT od odpowiedzialności za dane. Szczególnie ciekawym przypadkiem jest rynek SaaS. Microsoft, AWS czy Salesforce zobowiązują się do zapewniania dostępności usług, zachowania prywatności przechowywanych informacji czy fizycznej ochrony infrastruktury. Nie biorą natomiast odpowiedzialności za tzw. zagrożenia wewnętrzne, czyli przypadkowe skasowanie danych, sabotaż ze strony pracowników czy cyberataki. Niestety, większość użytkowników nie zdaje sobie z tego sprawy, aż do czasu pierwszej utraty danych. Dostawcy usług nie kwapią się zbytnio do tego, żeby uświadamiać klientów, tym bardziej, że na nieroztropnych użytkownikach można nieźle zarobić. Na przykład Salesforce każe sobie płacić za odzyskanie danych 10 tys. dol., a czas oczekiwania na realizację usługi to 6 do 8 tygodni.

To wszystko nie zmienia faktu, że segment systemów backupu dla SaaS rozwija się w ostatnim czasie dość dynamicznie. Największe możliwości wyboru mają użytkownicy Office 365, którzy mogą korzystać z rozwiązań takich producentów jak Acronis, Barracuda, Commvault czy Veeam. Od niedawna do tego grona dołączył amerykański startup HYCU. Pierwszym produktem HYCU było oprogramowanie do backupu systemów Nutanix, które zadebiutowało na rynku niespełna trzy lata temu. Było to unikalne rozwiązanie na rynku i żaden z producentów nie zdecydował się na podobny krok. Od tego czasu ten startup, z siedzibą w Bostonie, powoli rozwija ofertę dokładając narzędzia do backupu dla Google Cloud, AWS czy Microsoft Azure. Najnowszy produkt HYCU Protégé dla Microsoft Office 365 zapewnia natywne tworzenie kopii zapasowych i odzyskiwanie w chmurze dla Outlooka, Teams, SharePointa, OneDrive’a i OneNote’a. W segmencie systemów do backupu Office 365 robi się więc coraz bardziej tłoczno.

Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.

]]>
Tech Data poszerza europejską ofertę https://crn.sarota.dev/aktualnosci/tech-data-poszerza-europejska-oferte/ Fri, 05 Feb 2021 19:40:15 +0000 https://crn.pl/?p=254208 Rozwiązania kolejnego dostawcy w portfolio Tech Daty mają pomóc partnerom i działom IT w opanowaniu rosnącej masy nieustrukturyzowanych danych.

Artykuł Tech Data poszerza europejską ofertę pochodzi z serwisu CRN.

]]>
Tech Data podpisała ogólnoeuropejską umowę na oferowanie rozwiązań Komprise. Firma specjalizuje się w zarządzaniu danymi, w oparciu o analitykę jako usługę.

Dystrybuuowane rozwiązanie pozwala na analizowanie, przenoszenie danych, zarządzanie nimi, dostęp do właściwych plików oraz danych obiektowych w chmurach i hybrydowych środowiskach IT.

Celem jest wsparcie jednostek IT w migracji dużych obciążeń lub przenoszeniu danych między klasami i warstwami pamięci masowej oraz optymalizowaniu kosztów, dzięki automatyzacji.

Za sprzedaż rozwiązań Komprise w Polsce odpowiada Rafał Kupis, Data, Analytics & IoT Business Development Manager, Tech Data.

Artykuł Tech Data poszerza europejską ofertę pochodzi z serwisu CRN.

]]>