Artykuł Cove Data Protection – ochrona danych w chmurze jako usługa pochodzi z serwisu CRN.
]]>Usługa Cove Data Protection została zaprojektowana w celu zmniejszenia kosztów i złożoności ochrony danych, ale bez poświęcania szybkości i niezawodności tego procesu. Działa w systemach Windows, Windows Server, macOS oraz Linux CentOS/Debian/OpenSUSE. Jako źródła danych dla kopii zapasowych funkcjonować mogą zarówno pojedyncze pliki i katalogi, ustawienia konfiguracyjne systemu operacyjnego oraz takie systemy jak Microsoft Exchange, bazy SQL Server, MySQL i Oracle, a także środowiska wirtualizacyjne VMware i Hyper-V.
Cove Data Protection umożliwia również tworzenie kopii zapasowych i odzyskiwanie danych z należących od usługi Microsoft 365 aplikacji Exchange, OneDrive oraz SharePoint (zarówno samodzielnie, jak też po zintegrowaniu z platformą N-central). Zarządzanie procesem zabezpieczania danych odbywa się za pomocą tego samego pulpitu nawigacyjnego, jak w przypadku serwerów i stacji roboczych. Zgromadzone w zapasowym repozytorium dane przechowywane są przez siedem lat, aby pomóc klientom spełnić wymogi prawne.
W procesie wykonywania kopii zapasowych w usłudze Cove Data Protection zastosowana została opracowana przez N-able technologia TrueDelta. Dzięki niej kopiowanych jest do 60 razy mniej danych niż w przypadku produktów do tworzenia kopii zapasowych obrazów. Oprócz zduplikowanych plików, ignorowane są dane tymczasowe, znajdujące się w pamięci podręcznej przeglądarki oraz inne, podobne elementy. Dane zakwalifikowane do skopiowania analizowane są na poziomie podbloków w celu wykrycia tych, które faktycznie uległy zmianie. Wyeliminowana została potrzeba nieefektywnego skanowania całego dysku i ryzyko niepotrzebnego zakwalifikowania do skopiowania bloków, które zostały przeniesione w inne miejsce dysku, np. w wyniku defragmentacji. Wprowadzono też mechanizmy optymalizacji transmisji danych przez łącza WAN, m.in. poprzez ograniczanie transferu w godzinach pracy.
Bezpieczeństwo przede wszystkim
Firma N-able gwarantuje kompleksowe bezpieczeństwo usługi Cove Data Protection. Pliki chronione są za pomocą 256-bitowego szyfrowania AES podczas przesyłania i przechowywania (można utworzyć własny klucz prywatny lub wygenerować go podczas wdrażania usługi). Administratorzy mogą przyznawać ograniczony dostęp do kopii zapasowych w razie potrzeby, zabezpieczony obowiązkowym uwierzytelnianiem dwuskładnikowym. Ochronione zbiory mogą być przechowywane zarówno w lokalnym repozytorium, jak też w jednym z 30 centrów danych zlokalizowanych na czterech kontynentach, zgodnych z normami ISO 27001 i ISO 9001 (zgodność potwierdzona certyfikatem) oraz innymi regulacjami, obowiązującymi w danych krajach.
Jedną z ważniejszych funkcji dostępnych w usłudze Cove Data Protection, przekładających się na wzrost bezpieczeństwa chronionych danych, jest testowanie możliwości ich odzyskiwania. Testowe odzyskanie odbywa się do specjalnej maszyny wirtualnej (usuwanej natychmiast po zakończeniu testu), uruchamianej w środowisku chmurowym N-able. Operacja ta jest prowadzona automatycznie (co 14 lub 30 dni) wobec wskazanych przez administratora zasobów w celu weryfikacji, że kopie zapasowe stanu systemu plików i folderów będą możliwe do odzyskania wtedy, gdy są najbardziej potrzebne.
Mechanizm ten zapewnia znaczną oszczędność czasu (nie ma potrzeby prowadzenia ręcznych testów) oraz zasobów (nie trzeba angażować dodatkowego sprzętu ani konfigurować maszyny wirtualnej do testowania prowadzenia testów). Wyniki testów pojawiają się w pulpicie nawigacyjnym Recovery Testing we właściwościach urządzenia. Zawierają m.in. informację o tym, jak długo może potrwać odzyskiwanie danych z określonego urządzenia. Są też zawarte w miesięcznych raportach.
Usługę Cove Data Protection można przetestować bezpłatnie po zarejestrowaniu się na stronie https://www.n-able.com/products/cove-data-protection/trial. Wyłącznym dystrybutorem rozwiązań N-able w Polsce jest lubelska firma ed&r Polska.
Artykuł Cove Data Protection – ochrona danych w chmurze jako usługa pochodzi z serwisu CRN.
]]>Artykuł Powstaną państwowe centra danych za 1 mld zł pochodzi z serwisu CRN.
]]>Posłużono się rozwiązaniami, jakie zostały sprawdzone w krajowym porządku prawnym dla realizacji strategicznych inwestycji – informuje ustawodawca.
Przepisy umożliwiające budowę państwowych data center są coraz bliżej wprowadzenia. Sejm odrzucił część poprawek Senatu do ustawy przewidującej budowę Krajowego Centrum Przetwarzania Danych dla zasobów administacji i rządowej chmury. Celem jest poprawa bezpieczeństwa infrastruktury krytycznej i dostępności e-usług administracji. Na początek w woj. mazowieckim mają powstać trzy data center o powierzchni 2 tys. mkw, połączone światłowodami z dwiema niezależnymi drogami komunikacji. Taka powierzchnia ma umożliwić kolokację i rozbudowę dotychczasowych systemów państwowych oraz zabezpieczenie przestrzeni serwerowej na potrzeby nowych systemów.
Państwowe data center mają wykorzystywać OZE, w tym technologię ogniw wodorowych.
Podtrzymano zapisy o ekstra procedurach dla inwestycji, co ma ją znacznie przyspieszyć – nawet o kilka lat. Otóż Krajowe Centrum Przetwarzania Danych powstanie w oparciu o specjalną procedurę zamówień publicznych. Uproszczone i przyspieszone rozwiązania obejmują w zasadzie całą inwestycję, od decyzji wojewody o ustaleniu lokalizacji, poprzez decyzje środowiskowe, uzyskanie przez inwestora prawa do nieruchomości (regulacje umożliwiające wywłaszczenie), pozwolenie na budowę w określonym terminie (będą kary za przekroczenie terminów), postępowania administracyjne dotyczące inwestycji mają zamknąć się w określonym czasie (jak nie, to będą kary).
Artykuł Powstaną państwowe centra danych za 1 mld zł pochodzi z serwisu CRN.
]]>Artykuł Zarzuty UOKiK wobec MediaMarkt i 3 innych firm pochodzi z serwisu CRN.
]]>MediaMarkt komunikując promocje, mógł wprowadzać konsumentów w błąd i naruszać ich zbiorowe interesy – uważa UOKiK. Zarzuty dotyczą m.in. niepodawania najniższej ceny obowiązującej 30 dni przed wprowadzeniem obniżki bądź informowania o niej w sposób nieczytelny. Zdaniem urzędu nie uwzględniano również w aktualnej promocji odniesienia do tej ceny, stosowano filtry i prezentacje ofert nieodnoszące się do niej.
Takie same zarzuty UOKiK postawił Zalando, Sephorze i Glovo.
To pierwsze zarzuty prezesa UOKiK dotyczące przepisów wprowadzonych na początku 2023 r., które nakładają na przedsiębiorców obowiązek informowania o najniższej cenie z 30 dni poprzedzających promocję.
Prezes UOKiK: pół roku wyjaśniania wystarczy
„Razem z Inspekcją Handlową monitorujemy zasady dotyczące wdrażania nowych przepisów. Badamy sklepy stacjonarne, portale internetowe oraz platformy. Jasno zapowiadałem, że po etapie sprawdzania i wyjaśniania, jeśli w dalszym ciągu będą występowały nieprawidłowości, to spotkają się one z reakcją po stronie organu” – mówi Tomasz Chróstny, prezes UOKiK. Nie wykluczył postawienia zarzutów kolejnym przedsiębiorcom.
Co nie spodobało się urzędowi
Według UOKiK kwestionowana praktyka wymienionych detalistów dotyczy sytuacji, gdy kupujący kuszeni są wielkimi rabatami, a najniższa cena produktu na 30 dni przed wprowadzeniem promocji nie pokazuje obniżki, a czasem świadczy o podwyższeniu ceny. Takie działania mogą wprowadzać konsumentów w błąd – twierdzi UOKiK.
Co więcej, również nieczytelne informowanie o najniższej cenie z 30 dni przed wprowadzeniem obniżki (np. mała czcionka, blady kolor) może według urzędu naruszać zbiorowe interesy konsumentów. Ponadto filtry do wyszukiwania promocji muszą działać uczciwe.
Przy czym najwięcej błędów stwierdzono w zakresie uwidaczniania cen, w tym najniższej z ostatnich 30 dni przed obniżką.
W przypadku stwierdzenia naruszenia zbiorowych interesów konsumentów prezes UOKiK może nakazać zmiany niedozwolonej praktyki i nałożyć karę w wysokości do 10 proc. rocznego obrotu.
Kontakt dla partnerów:
Jakub Sieńko, dyrektor handlowy, ed&r Polska, jsienko@edr.pl
Snowflake znajduje się w ekscytującym momencie swojej podróży, prowadzonej poprzez rozwój generatywnej sztucznej inteligencji, dużych modeli językowych (LLM) i aplikacji. „Snowflake znajduje się w ekscytującym momencie swojej podróży, prowadzonej poprzez rozwój generatywnej sztucznej inteligencji, dużych modeli językowych (LLM) i aplikacji. „Snowflake znajduje się w ekscytującym momencie swojej podróży, prowadzonej poprzez rozwój generatywnej sztucznej inteligencji, dużych modeli językowych (LLM) i aplikacji.
Artykuł Zarzuty UOKiK wobec MediaMarkt i 3 innych firm pochodzi z serwisu CRN.
]]>Artykuł Puls branży IT pochodzi z serwisu CRN.
]]>Globalne wydatki na IT mają wzrosnąć w przyszłym roku o 5,1 proc. w porównaniu do obecnego, co oznaczałoby wejście na poziom 4,6 bln dol. Analitycy Gartnera oczekują silnego popytu, ponieważ przedsiębiorstwa będą inwestować w rozwiązania wspierające biznes w odpowiedzi na zawirowania gospodarcze. A jako że CIO mają za zadanie skrócić czas generowania wartości z inwestycji IT, przewiduje się, że firmy będą wykorzystywać technologie cyfrowe przede wszystkim do modyfikacji strumieni przychodów, dodawania nowych produktów i usług, zmiany przepływów pieniężnych oraz uzyskiwania wartości z istniejących produktów i usług. W ocenie analityków ma to fundamentalne znaczenie dla rozwoju chmury. Firmy przesuwają do niej nowe środki, na co wskazuje przewidywany 11-proc. wzrost wydatków na oprogramowanie w 2023 r. Jednocześnie przedsiębiorcom zależy na zwiększaniu wydajności operacyjnej, a zatem wydatki na IT zostaną też przeznaczone między innymi na tradycyjne potrzeby tzw. back-office’u. Z kolei w przypadku konsumentów wydatki na sprzęt mają się skurczyć o 8,4 proc. w 2022 r. i o kolejne 0,6 proc. w roku 2023.
Chociaż ponad 80 proc. resellerów i integratorów obawia się recesji w 2023 r., to ci działający w sektorze B2B mają powody do optymizmu – wynika z raportu Spiceworks Ziff Davis 2023 State of IT. W sumie bowiem 51 proc. przedsiębiorców planuje w tym czasie zwiększenie budżetów IT, podczas gdy jedynie 6 proc. deklaruje, że je obetnie. Przy czym firmy średnie (53 proc.) i duże (49 proc.) są dwa razy bardziej skłonne do „podkręcania” wydatków niż małe (27 proc.). W sumie co druga firma zapowiada działania przygotowujące ją na spowolnienie gospodarcze, w tym przeprowadzenie ponownej oceny dostawców, umów oraz likwidację niepotrzebnej infrastruktury. Z danych Spiceworks Ziff Davis wynika, że po niedawnych inwestycjach w modernizację, wielu przedsiębiorców zwraca się w kierunku usług zarządzanych w celu utrzymania i optymalizacji wciąż nowej infrastruktury IT (co jest między innymi efektem trudności z pozyskaniem fachowców). Wydatki na usługi zarządzane w Ameryce Północnej i Europie mają wzrosnąć w sumie do 18 proc. budżetów IT w 2023 r., wobec 15 proc. przed pandemią. Największa część przypada na zarządzanie, a więc aplikacje biznesowe, zabezpieczenia, hosting, wsparcie i utrzymanie sprzętu. Co ciekawe, plany wydatków na chmurę spadły rok do roku o 3 pkt. proc., do poziomu 23 proc. budżetów IT (USA i Europa łącznie). Trzy najważniejsze obszary inwestycji to: rozwiązania zwiększające produktywność, tworzenie i przywracanie kopii zapasowych online, jak też aplikacje wspierające biznes. Laptopy i desktopy nadal stanowią zasadniczą część budżetów na sprzęt, a wydatki w tym zakresie jedynie nieznacznie zmniejszą się w porównaniu z wysokimi poziomami w czasie pandemii. Z kolei największa część budżetów na oprogramowanie ma być wydatkowana w przyszłym roku przede wszystkim na bezpieczeństwo, a w nieco dalszej kolejności na oprogramowanie zwiększające produktywność, które tym samym straciło swoją pozycję lidera wydatków w zakresie software’u.
Dynamika wzrostu dostaw serwerów zmniejszy się z 5,1 proc. w 2022 r. do 3,7 proc. w roku 2023 – prognozują eksperci TrendForce. Wynika to z trzech czynników, a pierwszym jest… poprawa podaży, co sprawia, że nabywcy nie będą już zamawiać na zapas. Po drugie, z uwagi na inflację i ryzyko problemów gospodarczych, firmy będą mniej inwestować i zastępować niektóre serwery usługami w chmurze. Po trzecie, powinien rosnąć popyt na niewielkie centra danych, a budowa hiperskalowych gigantów spowolni, w związku z sytuacją geopolityczną. Analitycy odnotowują, że niedobory materiałów do produkcji serwerów zmniejszyły się w drugiej połowie 2022 r., a ich podaż i dostawy w krótkim terminie znacznie się poprawiły. Zakładają, że w 2023 r. dostawy materiałów pozostaną zabezpieczone, a popyt na sprzęt będzie można bez problemu zaspokoić. Źródło: TrendForce
Stopień nasycenia polskiego rynku laptopami, tabletami i smartfonami nie zmienił się znacząco w ostatnim czasie, ale ich duża popularność przekłada się na stałe zapotrzebowanie na nowe modele i usługi. W ciągu ostatniego roku odnotowano natomiast zmianę w preferencjach konsumentów, którzy coraz częściej decydują się na bardziej mobilne urządzenia, z mniejszym ekranem. W badaniu Deloitte 60 proc. ankietowanych zakłada, że ich wydatki na urządzenia elektroniczne wzrosną w najbliższych miesiącach w porównaniu do 2021 r. (badanie przeprowadzono w lipcu br.), co może jednak wynikać z inflacji. Aż 9 z 10 kupowanych smartfonów w Polsce to nowe urządzenia. Główną przyczyną jest brak zaufania konsumentów do używanych i odnowionych modeli. Tylko trzech na dziesięciu ankietowanych byłoby gotowych zapłacić więcej za produkt bardziej przyjazny środowisku. Warto podkreślić, że w tym roku dużą popularność zdobyły inteligentne zegarki, które są jedną z niewielu tak dynamicznie rosnących kategorii urządzeń elektronicznych w Polsce. Posiadanie smartwatcha deklaruje już co trzeci Polak, czyli o 20 proc. osób więcej niż rok wcześniej. Sprzęt ten coraz częściej służy do śledzenia stanu zdrowia.
Zanosi się na to, że w 2023 r. polskie szpitale wydadzą więcej na bezpieczeństwo infrastruktury IT. Już w lipcu br. 46 proc. zakładało, że ich budżet na te cele wzrośnie. Analitycy spodziewają się, że ostatecznie ten odsetek będzie wyższy, na co wpływ ma możliwość pozyskania dotacji z NFZ. To zmiana na plus w porównaniu z poprzednimi latami, gdy więcej środków na cyberochronę miała do dyspozycji jedynie co trzecia badana placówka. Wydatki pójdą głównie na ochronę przed utratą danych. Wśród rozwiązań, które mają być wdrażane, specjaliści odpowiedzialni za infrastrukturę IT w placówkach medycznych wskazywali głównie systemy wykrywania i zapobiegania włamaniom (IDS+IPS) oraz ochronę urządzeń końcowych.
Artykuł Puls branży IT pochodzi z serwisu CRN.
]]>Artykuł Dark social, czyli czego nie wiemy o komunikacji marketingowej pochodzi z serwisu CRN.
]]>Na różnych etapach rozwoju programów social selling i employee advocacy zawsze pada następujące pytanie: „po ja-kim czasie naszej obecności w social mediach pojawią się klienci?”. Często zadawane jest w duecie z innym, a mianowicie: „skąd będziemy wiedzieli, że ten klient odezwał się do nas po obejrzeniu wideo czy wysłuchaniu podcastu?”.
Marzeniem każdego marketera jest móc dokładnie odpowiedzieć na każde z tych pytań, niestety jest jedno „ale”, do tego ciemne. To dark social, cały ruch pochodzący z linków, które nie zawierają żadnych danych odsyłających o źródle, ale także ruch z rekomendacji wynikających z kontaktu z markami na przykład w social mediach. Pochodzenie ruchu jest dla marketerów nieznane, bo większość narzędzi ze standardowego pakietu analitycznego nie jest w stanie dokładnie wyśledzić „skąd przyszedł klient”.
Większość klientów chętnie odpowiedziałaby na pytanie, jak trafili do firmy, jednak tylko niewielki procent firm o to pyta. Na większości stron www z formularzem kontaktowym po prostu nie ma takiego pytania („skąd przychodzisz?”). Szkoda, bo rezygnując z tej wiedzy, nie tylko ograniczamy sobie możliwość ewaluacji skuteczności dzisiejszych działań marketingowych. Nie mamy również wglądu w to, jak NAPRAWDĘ wygląda ścieżka klienta i które aktywności content marketingowe warto rozwijać.
Czytasz ten artykuł i jeśli Cię zainteresuje, zapewne skopiujesz link (jeśli czytasz on-line) lub zrobisz zdjęcie i wyślesz do kogoś mejlem lub przez któryś z komunikatorów. Dodatkowo, jeśli na ciekawy tekst trafisz w social mediach – dajmy na to w poście na LinkedIn – to klikniesz link, który przeniesie Cię na stronę www i na 99 proc. już nie wrócisz do publikacji na LinkedIn, aby zostawić komentarz, prawda? To klasyczny przykład, jak wielka jest rozbieżność między liczbą reakcji bezpośrednio pod publikacją w social mediach a faktyczną konsumpcją treści. LinkedIn oficjalnie podaje, że jedynie 19 proc. odbiorców angażuje się w jakikolwiek sposób pod publikacją. Aż 64 proc. czyta lub ogląda i nie zostawia po sobie śladu w postaci polubienia lub komentarza.
Dlatego wielu danych marketerzy nie są dziś w stanie przeanalizować, przez co inwestują największe budżety tylko w te działania, których skuteczność mogą zmierzyć w Google Analytics, raportach z social mediów lub kampaniach leadujących. Nie doceniamy znaczenia tych wszystkich obszarów działających niejako „poza monitoringiem”. W przypadku marek B2B, gdzie decyzje są podejmowane z reguły przez kilka osób, ma to szczególne znaczenie. Każda z tych osób mogła odkryć dostawcę w sposób, którego Google Analytics (i inne podobne narzędzia) nie podadzą nam na tacy.
Artykuł Dark social, czyli czego nie wiemy o komunikacji marketingowej pochodzi z serwisu CRN.
]]>Artykuł Boxafe: backup dla aplikacji chmurowych pochodzi z serwisu CRN.
]]>Aby zapewnić pełną ochronę danych zgromadzonych w usługach Google Workspace oraz Microsoft 365, specjaliści QNAP-a opracowali rozwiązanie Boxafe – jedyne dostępne na rynku, które umożliwia przechowywanie kopii zapasowych z aplikacji SaaS zarówno w chmurze, jak też lokalnie, w siedzibie przedsiębiorstwa (na serwerze QNAP NAS). Boxafe jest licencjonowany według liczby zabezpieczanych kont (dla pierwszych 30 kont licencja jest bezpłatna). Nie ma natomiast limitu liczby kont, z których można chronić dane.
Z zasobów przechowywanych w usłudze Google Workspace zabezpieczane mogą być wiadomości Gmail (wraz z załącznikami), wszystkie wersje plików w Google Drive oraz wszystkie wpisy w usługach Kontakty i Kalendarz. Boxafe obsługuje pakiety Google Workspace Business Starter, Business Standard, Business Plus i Enterprise, a także Google Workspace for Education i Nonprofits.
W podobny sposób backupowane są dane z Microsoft 365 (OneDrive, Outlook, Kontakty, Kalendarz), ale dodatkowo umożliwiono tworzenie kopii zapasowych wszystkich bibliotek dokumentów SharePoint (w tym zawartości stron, aplikacji i in.) oraz wszystkich konwersacji Teams, kalendarza i zawartości witryny Teams (w tym biblioteki dokumentów, OneNote i in.). Boxafe obsługuje pakiety Microsoft 365 Business, Enterprise, Education oraz Exchange Online.
Dzięki opcji przyrostowego backupu tworzone są kopie zapasowe tylko zmienionych danych, aby zaoszczędzić czas i miejsce w pamięci. Ponadto dostępna jest funkcja przeniesienia zasobów byłych pracowników na konto innego pracownika. Boxafe zapewnia też przejrzysty i przyjazny interfejs użytkownika. Pokazuje w nim status ochrony, raport ostatnich zadań, a także udostępnia podgląd danych zgromadzonych w kopii zapasowej, aby uniknąć przywrócenia niewłaściwych plików – operacji tej mogą dokonywać także sami użytkownicy, bez konieczności korzystania z pomocy IT. Do ich dyspozycji jest również moduł zaawansowanego wyszukiwania, ułatwiający znajdowanie plików na podstawie ich nazwy, twórcy i innych informacji. Użytkownicy mogą przywracać w granularny sposób pojedyncze pliki, wiadomości i inne elementy.
Autoryzowanymi dystrybutorami rozwiązań QNAP w Polsce są: AB, EPA Systemy, Incom Group i Konsorcjum FEN.
Dodatkowe informacje: Grzegorz Bielawski, Country Manager, QNAP, gbielawski@qnap.com
Artykuł Boxafe: backup dla aplikacji chmurowych pochodzi z serwisu CRN.
]]>Artykuł Wielkie pieniądze na wielkie zbiory danych pochodzi z serwisu CRN.
]]>Jednym z przykładów jest amerykański startup HYCU, który w minionych miesiącach dwukrotnie otrzymał silne wsparcie finansowe. Najpierw, w czerwcu br., Acrew Capital, Bain Capital Ventures (BCV), Atlassian Ventures oraz Cisco Investments przeznaczyły na rozwój startupu 54 mln dol. Zaledwie cztery miesiące później inwestorem strategicznym HYCU został fundusz Okta Ventures. Wprawdzie nie ujawniono kwoty jego zaangażowania w ten biznes, aczkolwiek włączenie się tego inwestora do gry otwiera przed HYCU szereg możliwości rynkowych, o czym trochę później.
Simon Taylor, CEO HYCU, w jednym ze swoich wystąpień przyznał, że zanim wystartował z nowym projektem, wspólnie z zespołem prześledzili historię rynku ochrony danych.
– Veritas był świetny dla systemów Unixa, Commvault dla Windowsa, zaś Veeam sprawdził się w środowisku VMware’a. Jak jednak ludzie mają chronić swoje dane w środowisku wielochmurowym? – pyta Simon Taylor.
Nic dziwnego, że motto amerykańskiego startupu to: „Dane w dowolnym miejscu, ale chronione wszędzie”. HYCU stawia sobie za cel eliminację silosów danych i zapewnienie kompleksowej ochrony cyfrowych zasobów. Zdaniem Simona Taylora największą przyczyną tego chaosu jest postępująca adaptacja usług chmurowych, a zwłaszcza SaaS. Obecnie w Stanach Zjednoczonych działa około 15 tysięcy dostawców SaaS, a przeciętnie przedsiębiorstwo korzysta ze 150 aplikacji chmurowych.
HYCU rozpoczęło swoją działalność w 2017 r. od opracowania systemów backupu dla infrastruktury hiperkonwergentnej Nutanixa, a następnie stopniowo rozszerzała swoją ofertę w zakresie ochrony danych. Rok później pojawiło się rozwiązanie dla Google Cloud, a następnie dla AWS, Azure, VMware, Office 365 i Kubernetes. Flagowy produkt HYCU Protégé zapewnia ochronę i migrację danych w wielu chmurach.
Rozwiązania do backupu danych znajdujących się w środowisku chmurowym różnią się pod wieloma względami od tradycyjnych produktów.
– Jednym z przykładów jest deduplikacja. Musieliśmy opracować specjalną wersję dla środowiska chmurowego. Jak wiadomo, jest to funkcja wymagająca dużej mocy obliczeniowej. O ile w systemach pracujących lokalnie nie stanowi to wielkiej przeszkody, o tyle w chmurze znacznie obniża wydajność – wyjaśnia Subbiah Sundaram, Senior Vice President HYCU.
Przyszłość startupu wygląda dość obiecująco, zwłaszcza w kontekście współpracy z Oktą, która dostarcza platformę zarządzania tożsamością. HYCU uzyskuje dostęp do interfejsów API, technologii i wiedzy inżynieryjnej Okta, a także 15 tys. potencjalnych klientów.
Amerykańska firma N-able, podobnie jak HYCU, stawia na ochronę danych w chmurze. Wcześniej startup ten należał do SolarWinds, ale ich drogi rozeszły się w ubiegłym roku. N-able już jako samodzielny podmiot wystartował z nową marką Cove Data Protection. Prawdopodobnie nie byłoby to możliwe bez 250 mln dol. włożonych w projekt przez grupę inwestorów, w tym Canada Pension Plan Investment Board. Firma wprowadziła na rynek usługę SaaS, przeznaczoną do tworzenia kopii zapasowych oraz przywracania danych, obejmującą ochronę serwerów, stacji roboczych i platformy Microsoft 365.
– Produkt został opracowany przede wszystkim na potrzeby dostawców zarządzanych. Klienci nie potrzebują żadnych urządzeń, a kopie zapasowe mogą być przechowywane w jednym z 30 centrów danych, w których kolokujemy nasz sprzęt – wyjaśnia Chris Groot, General Manager Cove Data Protection.
Warto dodać, że firma nie zamyka się na klientów, którzy chcą przechowywać kopie zapasowe w środowisku lokalnym i istnieje opcja, która pozwala na wykorzystanie własnego serwera NAS.
Co ważne, N-able nie tworzy kopii zapasowej obrazu, lecz backup plików. W tym pierwszym przypadku można utworzyć kopię dysku wraz z systemem operacyjnym oraz zainstalowanymi wcześniej programami i ustawieniami. Natomiast backup plików nie obejmuje historii przeglądarki, dzienników, systemu operacyjnego i skupia się na kopiowaniu danych zapisanych w bibliotekach, pulpicie czy folderach domyślnych. Najczęściej są to dokumenty, zdjęcia i filmy.
– Kopie zapasowe oparte na obrazach są dalekie od ideału, zwłaszcza dla dostawców usług zarządzanych. Takie rozwiązanie oznacza zarządzanie pamięcią masową w wielu lokalizacjach, spędzanie zbyt dużo czasu na szukaniu i rozwiązywaniu problemów oraz niepotrzebną złożoność. Czas personelu to najcenniejszy zasób MSP, a także jego największy wydatek – wyjaśnia Chris Groot.
Tradycyjne pliki kopii zapasowych obrazów są duże, przez co tworzenie kopii zapasowych w chmurze jest czasochłonne i nieefektywne. N-able wylicza, że zastosowanie alternatywnej metody powoduje, że przyrostowe kopie zapasowe stanowią często tylko 10 do 20 procent całkowitego zmienionego rozmiaru plików.
– Jeśli więc zmodyfikowano 2 GB plików, ostatecznie zostanie zarchiwizowane tylko 200–400 MB – tłumaczy Chris Groot.
Segment usług oferowanych przez N-able doczekał się już własnej nazwy – Data Protection as a Service (DPaaS), czyli ochrona danych łącząca długoterminowe przechowywania kopii zapasowych oraz odzyskiwania po awarii. Akronim nie jest jeszcze zbyt popularny, ale rywalizacja pomiędzy dostawcami tej usługi zapowiada się interesująco. W tym kontekście sporo do powiedzenia powinny mieć takie formy, jak: Cohesity, Commvault (Metallic), Veeam czy wspomniane wcześniej HYCU. Co ciekawe, N-able bardzo poważnie myśli o polskim rynku i w związku z tym Chris Groot w listopadzie br. ma odwiedzić Warszawę.
Artykuł Wielkie pieniądze na wielkie zbiory danych pochodzi z serwisu CRN.
]]>Artykuł Ludzka twarz IT pochodzi z serwisu CRN.
]]>Jednocześnie, wbrew panującym stereotypom, branża IT obecnie najbardziej poszukuje specjalistów, którzy nie tylko wykażą się wysokiej klasy wiedzą techniczną, ale również umiejętnościami miękkimi, takimi jak praca w zespole i empatia. Dotyczy to również rynku polskiego. Trafia do nas coraz więcej zaawansowanych projektów wielkich firm z Doliny Krzemowej, które wymagają doskonałej współpracy w ramach jednego rozsianego po całym świecie teamu.
Jeszcze niedawno w obiegowym wyobrażeniu „człowiek z IT” był niemal synonimem introwertyka, osoby zamkniętej w sobie, która najlepiej porozumiewa się z kolegami i koleżankami z własnej branży. Wydawać by się też mogło, że szybki rozwój technologii – chociażby sztucznej inteligencji – będzie spychał na dalszy plan relacje międzyludzkie i wartości takie jak empatia, komunikacja, umiejętność pracy w zespole. Nic bardziej mylnego.
Być może powyższe brzmi jak paradoks, ale jest logiczne: im bardziej zaawansowany technologicznie projekt, tym większego zespołu wymaga. Globalne firmy z branży IT budują najczęściej zespoły złożone ze specjalistów rozsianych po całym świecie, co sprzyja nie tylko płynnej wymianie wiedzy technologicznej, ale również rozwija kompetencje miękkie specjalistów IT.
Coraz bardziej dotyczy to również rynku polskiego. Jeszcze 10-15 lat temu w Polsce poszukiwano głównie pracowników IT z podstawowymi umiejętnościami technicznymi i językiem angielskim do obsługi najprostszych funkcji w dużych korporacjach, jak centra outsourcingowe czy centra usług wspólnych. Dziś trafiają do nas coraz bardziej złożone projekty firm z rynków wiodących prym w branży IT. Realizacja tematów opartych na Machine Learning i Data Science, obejmujących usprawnienia związane z produkcją, logistyką czy branżą FinTech dla innowacyjnych marek z Doliny Krzemowej to nic nadzwyczajnego. Ponieważ polscy specjaliści i kadra managerska z branży IT są cenieni na całym świecie, do naszego kraju trafia coraz więcej projektów w fazie rozwoju, które wymagają znacznie więcej kompetencji i to nie tylko pod względem technicznym, ale też osobowościowym.
Aby osiągnąć cel w postaci najwyższej jakości produktu lub usługi, potrzebni są liderzy, menedżerowie czy świetnie komunikujący się zgodnie z nowoczesnymi trendami zarządzania specjaliści. Osoby te pracują jednocześnie w wielu krajach, wychowały się w różnych kulturach i muszą umieć się nie tylko porozumieć, ale także wypracować zdalnie odpowiednią mieszankę kreatywności, krytycznego myślenia i efektywności po to, aby przedstawić najlepsze rezultaty swojej pracy.
Skuteczne zarządzanie projektami w branży IT to klucz do sukcesu. Obowiązujące niegdyś podejście waterfall, bardziej sztywne, formalne, nastawione na trzymanie się ustalonych etapów projektu, dziś przez wielu specjalistów IT jest uważane za nieco przestarzałe. W związku z tym coraz więcej firm działa według filozofii Agile, co często podkreśla w ofertach pracy dla specjalistów IT. Metoda ta jest dużo bardziej elastyczna, nastawiona na kreatywność, gdzie najważniejsze jest to, by efekt końcowy był taki, jakiego naprawdę potrzebuje klient. Dla wielu kandydatów praca metodami zwinnymi to ważne kryterium rozpatrywania propozycji pracy u przyszłego pracodawcy.
Według Badania Społeczności IT 2022 portalu bulldogjob.pl, przeprowadzonego w styczniu i lutym br. na grupie 7382 osób z branży IT w Polsce, głównymi kryteriami przy wyborze pracy są pieniądze (dla 82 proc.), ale już na kolejnych dwóch miejscach znalazły się elastyczność (dla 64 proc.) oraz atmosfera w firmie (dla 52 proc.). Ten ostatni czynnik stanowi najważniejszą motywację do pozostania w obecnym miejscu pracy – wskazało go aż 50 proc. ankietowanych.
Jednocześnie elastyczne, transparentne zarządzanie projektami w systemie agile wymaga od zespołu wielu kompetencji miękkich: komunikacji, tolerancji, otwartości, odporności na stres. Dlatego sami specjaliści IT dziś chętnie podejmują działania nastawione na rozwijanie takich umiejętności, na przykład idąc na studia podyplomowe z zarządzania, co kiedyś w tej branży nie było zbyt popularne.
Artykuł Ludzka twarz IT pochodzi z serwisu CRN.
]]>Artykuł Regulacje rozproszone, ale obowiązujące pochodzi z serwisu CRN.
]]>Wyzwaniem, z którym stale muszą mierzyć się zarówno dostawcy chmury, jak i ich partnerzy oraz sami odbiorcy usług, jest stosowanie się do istniejących regulacji prawnych. Obowiązek zapewnienia zgodności z wymogami prawa wdrażanych rozwiązań oraz sposobów ich wykorzystania spoczywa nie tylko na użytkownikach, ale także dostawcach środowisk chmurowych.
Wśród wielu użytkowników wciąż panuje błędne przekonanie, że cała odpowiedzialność za bezpieczeństwo przetwarzanych w chmurze danych spoczywa wyłącznie na dostawcy usług. W rzeczywistości jednak odpowiednie środki zabezpieczające musi podjąć zarówno usługodawca, jak i usługobiorca. Odpowiedzialność jest dzielona pomiędzy wszystkie strony kontraktu. Jej zakres i poziom zależą od modelu wykorzystywanej chmury, rodzaju świadczonych usług, ale również od charakteru przetwarzanych danych, czy nawet branży reprezentowanej przez odbiorcę.
Dzielenie się odpowiedzialnością za bezpieczeństwo wykorzystywanego środowiska chmurowego znajduje odzwierciedlenie również w obowiązujących regulacjach prawnych. Problemem w ich praktycznym stosowaniu jest jednak to, że na gruncie polskim nie ma jednego uniwersalnego aktu prawnego, który by kompleksowo regulował związane z nimi kwestie.
Dostawcy i użytkownicy usług chmurowych muszą uwzględnić w swoich działaniach szereg wymogów prawnych, rozproszonych po różnych przepisach – począwszy od ustaw, przez rozporządzenia, aż po rządowe uchwały oraz unijne dyrektywy. Przedsiębiorcy muszą odwoływać się do wielu aktów prawnych, które w sposób bezpośredni lub tylko pośrednio określają wymagania pod adresem usług w chmurze. Są wśród nich zarówno ustawy o charakterze ogólnym, jak też regulacje branżowe.
Z racji tego, że usługa chmurowa ma charakter cyfrowy, należy stosować się do regulacji wynikających z ustawy o świadczeniu usług drogą elektroniczną. Zgodnie z jej art. 7 usługodawca musi zapewnić taki poziom bezpieczeństwa, który uniemożliwi osobom nieuprawnionym dostęp do treści przekazu składającego się na usługę. W szczególności sposobem jego osiągnięcia jest zastosowanie technik kryptograficznych. Niedopełnienie tego wymogu może być podstawą do pociągnięcia dostawcy usługi do odpowiedzialności prawnej.
W zakresie wymogów dotyczących bezpieczeństwa trzeba brać pod uwagę również ustawę o krajowym systemie cyberbezpieczeństwa. Obejmuje ona między innymi dostawców usług elektronicznych, do których zaliczeni zostali również dostawcy usług w chmurze. Ich obowiązki zostały określone w rozdziale 4 ustawy, szczególnie w art. 17 i 18. Przede wszystkim muszą oni podejmować właściwe i proporcjonalne środki techniczne i organizacyjne w celu właściwego zarządzania ryzykiem, na jakie narażone są wykorzystywane do świadczenia usługi systemy informatyczne.
We wspólnej przestrzeni Komisja Europejska przedstawiła projekt rozporządzenia w sprawie europejskiej przestrzeni danych dotyczących zdrowia (European Health Data Space). Zawiera on propozycje wprowadzenia wspólnego, europejskiego formatu dla: skróconych kart zdrowia, obrazów medycznych i ich opisów, wyników badań laboratoryjnych, e-recept oraz wypisów ze szpitala. Wskazuje również na obowiązek zapewnienia interoperacyjności systemów elektronicznej dokumentacji medycznej na poziomie europejskim. Zdaniem ekspertów proponowane rozwiązania mogą przełożyć się na wzrost popularności rozwiązań chmurowych w branży ochrony zdrowia za sprawą digitalizacji zasobów medycznych wzmocnionej wprowadzonymi wymogami.
Artykuł Regulacje rozproszone, ale obowiązujące pochodzi z serwisu CRN.
]]>Artykuł Stormshield: nowe zapory i silnik antywirusowy pochodzi z serwisu CRN.
]]>Chcące się rozwijać organizacje szukają rozwiązania, które pozwoli im na szybkie i bezproblemowe dostosowywanie wdrożonej infrastruktury bezpieczeństwa do zmieniających się potrzeb. Najlepszą odpowiedzią na to jest system modułowy, który można łatwo skalować. Właśnie taką architekturę mają nowe zapory Stormshield, które podążają za rozwojem organizacji oraz zwiększającą się liczbą użytkowników. Na polskim rynku jest już dostępna SN-M-Series, w której jeden hardware kryje dwa modele: SN-M-720 i SN-M-920. Wybierając ten pierwszy możemy wykonać upgrade licencji i podnieść dwukrotnie wydajność swojego firewalla do SN-M-SN-920 bez konieczności zmiany sprzętu!
Nowa seria firewalli, kierowana do średnich i dużych organizacji, oferuje też mechanizmy gwarantujące ciągłość działania systemów w przypadku awarii sprzętu lub sieci. Rozwiązanie zawiera redundantne zasilanie, a także funkcjonalność SD-WAN, zapewniającą możliwość wyboru optymalnych – w danych warunkach – łączy sieciowych. Kolejną zaletą serii SN-M jest wbudowany dysk twardy SSD i możliwość zainstalowania urządzeń w szafie rackowej, co ułatwia wdrożenie ich obok posiadanej infrastruktury IT.
SN-M-Series wyposażono w skalowalną platformę programową, dzięki czemu można zwiększyć zasięg ochrony (z 300 do 500 użytkowników), aktualizując jedynie licencję. Przedsiębiorstwa, które wybiorą najpierw rozwiązanie SN-M-Series-720, będą mogły poprzez aktualizację do SN-M-Series-920 zwiększyć przepustowość zapory z 18 Gb/s do 36 Gb/s.
Tak łatwa możliwość rozbudowy z pewnością zostanie doceniona przez rynek. Tym bardziej, że aby zwiększyć przepustowość sieci i dopasować się do wszystkich wynikających z rozwoju potrzeb (segmentacja sieci, multi-WAN, redundantne zasilanie itp.) nie ma potrzeby zmiany sprzętu, wystarczy jedynie dodać kolejne moduły sieciowe (Ethernet, SFP lub SFP+).
Model SN-M-Series-920 wyróżniają możliwości w zakresie połączeń sieciowych pomiędzy chronionymi lokalizacjami (SD-WAN, dynamiczne zarządzanie łączami, QoS, VPN itp.). Jego możliwości rozbudowy sieci przekładają się na wiele elastycznych opcji konfiguracyjnych, natomiast modułowość opcji interfejsów miedzianych i światłowodowych 1 GbE lub 10 GbE ułatwia rozbudowę infrastruktury.
Zapory SN-M-Series-720 i SN-M-Series-920 zapewniają ochronę sieci dzięki ujednoliconemu systemowi zabezpieczeń (antywirus, antyspam, IPS, filtrowanie WWW/URL, IPsec VPN, SSL VPN i in.). W przypadku ochrony antywirusowej doszło ostatnio do ważnej zmiany w architekturze zabezpieczeń Stormshielda. Po rozpoczęciu rosyjskiej agresji na Ukrainę ten europejski dostawca, którego produkty są certyfikowane przez NATO oraz UE, zrezygnował z usług firmy Kaspersky Lab. Obecnie dostawcą skanera antywirusowego jest Bitdefender.
– To producent długo obecny na rynku, którego rozwiązanie jest cenione przez użytkowników. Włączając je do naszej oferty realizujemy strategię, zgodnie z którą jesteśmy dla podmiotów publicznych i prywatnych godnym zaufania europejskim partnerem w zakresie cyberbezpieczeństwa. W czasach, gdy tak ważna stała się geopolityka także w tym obszarze, ma to niebagatelne znaczenie – mówi Piotr Zielaskiewicz, odpowiadający za Stormshielda w Dagma Bezpieczeństwo IT.
Product Manager Stormshield, Dagma Bezpieczeństwo IT, zielaskiewicz.p@dagma.pl
Artykuł Stormshield: nowe zapory i silnik antywirusowy pochodzi z serwisu CRN.
]]>