Artykuł QNAP otworzył europejską siedzibę pochodzi z serwisu CRN.
]]>QNAP Systems otworzył nową europejską siedzibę w Willich w Niemczech, w pobliżu Düsseldorfu. Budynek pełni funkcję centrali tajwańskiej korporacji na kontynencie, centrum logistycznego i centrum usług. Inwestycja o wartości ponad 11 mln euro łączy kilka europejskich lokalizacji pod jednym dachem.
Obiektem zarządza QNAP GmbH, spółka odpowiedzialna za działalność w Europie.
Uruchomienie kontynentalnej centrali zwiększa zdolność operacyjną firmy i potwierdza zaangażowanie w długoterminowy rozwój działalności w Europie – zapewnia QNAP.
Tajwańska firma powstała w 2004 r. Na świecie posiada obecnie 15 oddziałów w 28 krajach, zatrudnia łącznie ponad 1,3 tys. pracowników oraz ponad 600 inżynierów w działach R&D.
Artykuł QNAP otworzył europejską siedzibę pochodzi z serwisu CRN.
]]>Artykuł Firmowe sieci w łańcuchu dostaw pochodzi z serwisu CRN.
]]>– Obecnie coraz więcej MŚP może sobie pozwolić na rozwiązania sieciowe najwyższej klasy. To efekt zmiany podejścia decydentów w firmach w realiach pandemicznych. Często dokonywali alokacji budżetów z innych obszarów właśnie na IT, aby zrealizować kluczowe projekty – twierdzi Magdalena Łyszczarz, SMB Territory Manager w Cisco.
Z obserwacji producenta wynika, że średniej wielkości przedsiębiorcy planują inwestycje w rozwiązania sieciowe w dłuższej perspektywie (nawet od 8 do 12 miesięcy). Mniejsze firmy często decydują się na szybkie wdrożenia i zależy im głównie na dostępności produktów oraz łatwej implementacji. Trudno przy tym wskazać konkretną branżę, w której panuje największe ożywienie.
– Ciekawym przykładem jest HoReCa. Pomimo trudnych ostatnich dwóch lat, inwestorzy z tej branży optymistycznie patrzą w przyszłość. W ubiegłym roku nasi partnerzy zrealizowali bardzo dużo projektów hotelowych: zarówno w nowo powstających obiektach, jak w ramach modernizacji istniejącej infrastruktury – mówi Robert Gawroński, SMB Channel Manager w TP-Linku.
Ostatnie zmiany w gospodarce i funkcjonowaniu handlu spowodowały, że przybywa inwestycji w magazyny wysokiego składowania. Również sieci sklepów są na etapie modernizacji swojej dotychczasowej infrastruktury oraz potrzebują nowej dla otwieranych oddziałów. Tego rodzaju klienci szukają w sieciówce przede wszystkim stabilności. Chcą, by zakupione rozwiązania sprawiały im jak najmniej problemów, a zarządzanie mogło być prowadzone za pomocą jednej konsoli (co kieruje ich w stronę platform chmurowych). Kolejne pożądane cechy kupowanych systemów to redundancja interfejsów radiowych i skalowalność.
– Jeśli klienci, w związku z tworzeniem kolejnych placówek, po roku lub dwóch będą chcieli dokupić kilkadziesiąt urządzeń, to oczekują, że bez problemu i dodatkowych kosztów dołączą je do posiadanej infrastruktury, aby objąć zasięgiem Wi-Fi większy obszar albo obsłużyć większą liczbę użytkowników – mówi Mariusz Bajgrowicz, Channel Sales Manager w Kappa Data.
Chociaż jakość rozwiązania sieciowego pełni dużą rolę, to cena zakupu nie przestała nagle mieć znaczenia. Przy założonym budżecie klienci starają się osiągnąć jak najlepszy stosunek ceny do jakości. Jednocześnie widać, że coraz więcej organizacji wybiera rozwiązania uznanych marek. Tym bardziej, że nawet tzw. A-brandy potrafią zejść sporo z ceną w ramach większych projektów. Co do mniejszych klientów, ich potrzeby zaspokajają dostawcy, którzy – nie oferując rozwiązań klasy enterprise – dostarczają funkcjonalności, które w pełni odpowiadają wymogom niewielkiego biznesu.
Kolejnym elementem, który decyduje o wyborze tego, a nie innego dostawcy jest to, czy radzi on sobie z problemem zachowania ciągłości dostaw, który trapi rynek od dłuższego już czasu. Są dostawcy, którzy każą swoim odbiorcom czekać na zakupiony sprzęt nawet 3–4 miesiące. W rezultacie wiele projektów zostaje zamrożonych, o ile klient może czy wręcz musi poczekać. Zmuszeni czekać są ci, którzy zainwestowali w infrastrukturę określonego dostawcy na tyle dużo, że nie opłaca im się przejście na konkurencyjne rozwiązania. Decydować o tym może także centralna platforma zarządzania z chmury, przy użyciu której nie da się administrować sprzętem innej marki.
W innej sytuacji są ci, którzy w danej lokalizacji budują infrastrukturę od zera. A jeśli muszą ją szybko uruchomić, wybierają takich producentów, którzy są z marszu gotowi do realizacji zamówienia.
– Na wybór dostawcy wpływać mogą także standardy zagranicznej centrali firmy, w której przed laty zdecydowano o związaniu się z tym, a nie innym producentem, a potem było to powielane w otwieranych na polskim rynku oddziałach – podkreśla Mariusz Bajgrowicz.
W innych przypadkach, jeżeli zaproponowane przez projektanta czy instalatora rozwiązanie mocno nadwyręża budżet inwestora, następuje ponowne sprawdzenie wymagań odnośnie do sprzętu. Bywa, że oferowane na tej podstawie rozwiązanie jest nie tylko tańsze, ale lepiej dopasowane do danego projektu.
Tak czy inaczej, w ostatnich dwóch latach z mniejszymi lub większymi problemami z dostępnością zmagają się w zasadzie wszyscy producenci sieciówki. Ten zatem czynnik odgrywa coraz większą rolę przy wyborze rozwiązań przez klientów końcowych.
– Wobec problemów z dostępnością inwestor jest często gotów zaakceptować droższe, przeskalowane pod względem funkcjonalności rozwiązanie, ale dostępne „od ręki” – przyznaje Robert Gawroński.
W przypadku sieci bezprzewodowych coraz mniej wątpliwości budzi wybór rozwiązań z Wi-Fi 6. Klienci porównują możliwości tego standardu z posiadaną infrastrukturą i po kalkulacji kosztów wychodzi im, że warto zainwestować w coś, co zapewni im spokój na kolejne lata. Wi-Fi 6 radzi sobie z rosnącą liczbą użytkowników dużo lepiej niż poprzednie generacje sieci bezprzewodowych. Dylematów nie mają ci, którzy wdrażają swoje sieci od zera – dla nich najnowszy standard staje się pierwszym wyborem.
W czasach globalizacji trafia do Polski sprzęt z różnych stron świata. Trzeba sobie zdawać sprawę, że jego producenci mogą umieszczać w swoich rozwiązaniach backdoory, bo jest to wymagane przez ich rządy. Sądzę, że z czasem klienci będą zwracać na to większą uwagę i wybierać urządzenia pozbawione furtek, które umożliwiają ewentualne zdalne kontrolowanie sprzętu i obsługiwanego przez niego ruchu. Powinno się to stać szczególnie istotne dla sektora publicznego. Czasy są niespokojne, mamy coraz więcej włamań do sieci i ten aspekt powinien zyskiwać na znaczeniu.
Wszędzie tam, gdzie usługi wymagają stabilnej transmisji, na przykład podczas wideokonferencji, wymagana jest stabilna i odporna na zakłócenia infrastruktura. Sytuacja wymuszona przez pandemię spowodowała, że wiele z istniejących w sektorze MŚP rozwiązań sieciowych zostało zmodernizowanych czy wręcz wybudowanych na nowo. Wzrosło zapotrzebowanie na wydajniejsze rozwiązania sieciowe, umożliwiające zdalny dostęp do systemów i zasobów firmowych. W małych i średnich firmach, gdzie stosowane są rozwiązania niższej klasy niż sprzęt dla ISP czy operatorów telko, cena stanowi istotny czynnik wyboru. Równie ważna, a czasem kluczowa, jest dostępność urządzeń. Nierzadko czas dostarczenia rozwiązania to nie kilka, ale kilkanaście tygodni.
Z naszego punktu widzenia zauważalnym trendem w segmencie małych i średnich przedsiębiorstw jest rosnąca świadomość użytkowników i organizacji o konieczności zabezpieczenia sieci komputerowej przed różnego rodzaju zagrożeniami. Coraz więcej średnich i mniejszych firm postanawia „odrobić pracę domową” w zakresie rozumienia istoty niebezpieczeństw czyhających „tuż za rogiem”. To niezmiernie ważne, nie tylko z biznesowego punktu widzenia, ale również trendów wyznaczających przyszłość, która – czy tego chcemy czy nie – opierać się będzie coraz mocniej na powszechnie dostępnych technologiach. Dlatego świadomość potencjalnych zagrożeń jest tu kluczowa.
Artykuł Firmowe sieci w łańcuchu dostaw pochodzi z serwisu CRN.
]]>Artykuł Domowe sieci przed nową falą popytu pochodzi z serwisu CRN.
]]>Co istotne, dane Play wskazują również, że w domach i SOHO bardzo ważna jest jakość połączeń bezprzewodowych. Otóż niemal wszyscy, bo 97 proc. użytkowników ankietowanych przez operatora, korzysta z sieci Wi-Fi. Sieć musi też zapewnić dostęp do wielu urządzeń jednocześnie, ponieważ 66 proc. badanych korzysta z Internetu na czterech i więcej urządzeniach, a ich ilość z pewnością będzie rosła.
– Produkty sieciowe cieszą się dużym popytem i co prawda niewielkim, ale jednak wzrostem w stosunku do roku poprzedniego – mówi Marcin Kołpak, Product Manager w Veracomp – Exclusive Networks.
Na spory wzrost zapotrzebowania na infrastrukturę Wi-Fi w domach w minionych kwartałach wskazują natomiast dane światowe. Według IDC w II kw. 2021 r. rynek wzrósł o 10 proc. wobec II kw. 2019 r., czyli czasu sprzed problemów z Covid-19.
– Użytkownicy zrozumieli, że sieć bezprzewodowa nie jest z gumy i ma wiele ograniczeń, jeśli chodzi o jej wydajność. Szybko okazało się, że choć deklarowana prędkość łącza internetowego od dostawcy jest wysoka, domowy router nie daje rady obsłużyć wszystkich urządzeń w sieci – twierdzi Robert Kulasiński, Distribution Channel Manager w TP-Linku.
W związku ze zmianą sposobu korzystania z sieci domowych w ciągu ostatniego roku, obserwuje się dwa zasadnicze trendy: zainteresowanie sprzętem podnoszącym wydajność, jak i zasięg domowego Internetu. Stąd rośnie sprzedaż urządzeń Wi-Fi 6, a co istotne, segment ten jest daleki od nasycenia, na co także wskazują dane światowe. Według IDC w II kw. 2021 r. punkty dostępowe Wi-Fi 6 generowały 24,5 proc. przychodów w segmencie konsumenckim, w porównaniu z 20,3 proc. w I kw. 2021 r. Wynika więc z tego, że mimo wzrostu sprzedaży Wi-Fi 6, nadal zdecydowana większość rynku to Wi-Fi 5.
Na polskim rynku można zaobserwować ponadto znaczny wzrost zainteresowania systemami mesh, czyli zestawami składającymi się z kilku urządzeń, które ułatwiają zwiększenie wydajności, stabilności jak i zasięgu Wi-Fi, a są przy tym łatwe w konfiguracji i zarządzaniu. To zresztą jedno z najważniejszych oczekiwań użytkowników prywatnych.
Urządzenia w ramach modelu mesh komunikują się ze sobą, tworząc jednolitą sieć bezprzewodową. Przełączanie się pomiędzy jednostkami odbywa się automatycznie bez ryzyka utraty połączenia.
– Ze względu na popularyzację pracy zdalnej, znacznie wzrosło zapotrzebowanie na tego typu rozwiązania. Jednocześnie obserwujemy spadek zainteresowania tradycyjnymi wzmacniaczami sygnału – informuje Robert Kulasiński.
Z kolei w dystrybucji można zauważyć, że oprócz zestawów mesh, także ekstendery wciąż mają wzięcie. Na uwagę zwraca przy tym mniejsza niż w ub.r. popularność routerów VPN, które kupowane są przez konsumentów do pracy zdalnej. Ostatnio mniejszym popytem cieszą się również najprostsze routery – sprzętz dolnej półki cenowej.
– Klient jest w stanie zapłacić więcej za nowoczesne urządzenie, które można obsługiwać z pomocą aplikacji – przekonuje Marcin Kołpak.
Sygnalizowane jest też rosnące zapotrzebowanie na gamingowe routery, jak również sprzęt z wydajnymi procesorami i antenami dla sieci działającej w dwóch pasmach. A jako, że ważniejszym niż przed pandemią aspektem stało się bezpieczeństwo, funkcje takie jak sieć dla gości i kontrola rodzicielska mają spore znaczenie przy wyborze sprzętu.
Tym niemniej świadomość cyberzagrożeń w domach nadal jest różna, na co zwraca uwagę Grzegorz Michałek z Arcabitu. Jak ocenia, stan wzmożonej czujności związany z przejściem na pracę zdalną jedynie chwilowo wpłynął na kompetencje i zachowania użytkowników. Przykładowo, praca w trybie home office nadal jest realizowana poprzez bezpośrednie przekierowanie portów zdalnego pulpitu. Użytkownicy domowi w ogóle nie wiedzą o istnieniu VPN-a albo celowo z niego rezygnują w obawie, że coś nie zadziała. Nadal częsta jest praca z uprawnieniami administracyjnymi czy brak zabezpieczeń telekonferencji – wylicza ekspert.
Zdaniem integratora
W zeszłym roku obserwowaliśmy duży wzrost zapotrzebowania na routery w związku z przejściem na pracę zdalną. W tym roku sprzedaż utrzymuje się na podobnym, dość wysokim poziomie – widać popyt na systemy mesh, przełączniki i inny sprzęt sieciowy. Sporo klientów prywatnych, zwłaszcza tych, którzy mają domy, nadal przychodzi do mnie z problemami z przepustowością i zasięgiem sieci, bo ludzie mają teraz więcej urządzeń, oglądają filmy, grają, a do tego mają kamery monitoringu. Generalnie klienci przychodzą z jakimś problemem i chcą, aby go rozwiązać, a nie szukają konkretnych urządzeń, bo większość się na tym nie zna. Z tego, co obserwuję, standardowe routery od dostawców Internetu nie zawsze są w stanie wykorzystać przepustowość sieci i jeszcze nie wszyscy zdają sobie z tego sprawę. Klientom polecam sprzęt nietani, ze średnich i wyższych półek i wielu akceptuje taką ofertę, jeśli tylko im się wytłumaczy, dlaczego mają zapłacić więcej. Gdy przekona się klienta, że za wyższą cenę wszystko będzie działać jak należy i będzie mieć spokój, to kupi. Natomiast ci, co wolą płacić mniej, mimo że to odradzam, i tak wracają do mnie po coś lepszego. Poza tym wolę oferować produkty droższe i lepszej jakości nie tylko dla marż, ale też dla własnego komfortu pracy i renomy firmy. Nie chcę później wysłuchiwać pretensji, że coś taniego nie działa przeze mnie, a ja mam to poprawiać czy naprawiać. Natomiast, gdy mimo wszystko droższe rozwiązanie okazuje się problematyczne i muszę interweniować, to przynajmniej wiem, że klient za to dobrze zapłacił.
Nowe fale popytu na horyzoncie
Mimo że rozbudowa domowej infrastruktury informatycznej w związku z pracą zdalną trwa już dobre 1,5 roku, zdaniem dostawców rynek rozwiązań sieciowych jest daleki od nasycenia. Zwłaszcza trwałe już, jak się wydaje, przejście na pracę hybrydową będzie powodować konieczność dalszych inwestycji w domach. Według raportu Colliers w Polsce 77 proc. badanych firm zamierza na stałe wprowadzić hybrydowy model pracy. Najczęściej zdalnie pracownicy będą działać 3 lub 4 dni w tygodniu – wynika z zapowiedzi respondentów.
– Taki model pracy na pewno będzie miał wpływ na rozwiązania sieciowe i NAS – uważa Przemysław Biel, Senior Key Account Manager w Synology.
Eksperci informują przy tym o dużym zainteresowaniu routerami domowymi, które mają funkcje takie, jak urządzenia biznesowe (w tym darmowe licencje VPN Plus i zdalny pulpit) urządzeniami sieciowymi, które pozwalają bezpiecznie łączyć infrastrukturę domową z biurową, ułatwiając pracę hybrydową.
– Zauważamy ogromne zainteresowanie rozwiązaniami sieciowymi. Zarówno serwery sieciowe, jak i nasze routery notują dwucyfrowe wzrosty – zapewnia menedżer Synology.
Producenci oceniają, że będzie też rosnąć potrzeba zabezpieczenia danych w domach i zapewnienia ich dostępności, co już przekłada się na popyt na NAS-y. Przypuszcza się przy tym, że kolejne fale pandemii skłonią konsumentów do inwestycji w lepsze łącza, a wręcz będą do tego zmuszeni, by móc normalnie funkcjonować w czasach hybrydowej pracy i nauki oraz rozwoju cyfrowej rozrywki.
– Niektórzy twierdzą, że kto miał rozbudować swoją domową sieć, już to zrobił. Nie mogę się z tym zgodzić. Jeśli praca zdalna i hybrydowa edukacja zostaną z nami na dłużej, doposażyć swoją infrastrukturę będą musiały miliony gospodarstw domowych, które nadal tego nie zrobiły – podsumowuje Robert Kulasiński.
Czego może zabraknąć?
Producentów urządzeń domowej infrastruktury sieciowej nie ominęły problemy z dostępnością, podobnie jak innych wytwórców tego, co do działania wymaga układów scalonych.
– Brak procesorów oraz bardzo wysokie koszty logistyczne przełożyły się na ograniczoną dostępność i wyższą cenę urządzeń, głównie switchy i routerów – przyznaje Tomasz Leyko, Product Manager w Actionie.
Z kolei Marcin Kołpak informuje, na przykładzie asortymentu TP-Linka, że od początku roku nie było dużych zmian cen urządzeń do domowych sieci. Niedostateczna podaż nie tyle dotyczy routerów, co switchy z wyższych półek – z nimi jego zdaniem będzie największy problem.
– Przewidywalna poprawa dostępności tych produktów to koniec II kw. 2022 r.– mówi menedżer Veracomp – Exclusive Networks.
A ponieważ również w przypadku NAS-ów popyt przekracza w niektórych przypadkach możliwości produkcyjne, może to skutkować przerwami w dostępności.
– Ten rok był trudny dla całej branży, ponieważ producenci podzespołów oferowali różne poziomy dostępności – mówi Łukasz Milic, Business Development Representative w QNAP-ie. Dodaje przy tym, że mimo to sprzęt udało się dostarczać w miarę na bieżąco, dzięki zapasom w dystrybucji. Największe problemy dotyczyły czipsetów do adapterów sieciowych 10GbE, czyli rozwiązań przeznaczonych dla biznesu i graczy. Nie przełożyło się to znacząco na dostępność urządzeń z kartami 10GbE.
Zdaniem specjalisty
Obserwujemy znaczny wzrost zainteresowania systemami mesh. To niezwykle wydajne i proste w konfiguracji rozwiązanie. Ponadto szybko okazało się, że domowy router nie daje rady obsłużyć wszystkich urządzeń w sieci. Tu z pomocą przyszedł standard Wi-Fi 6, przystosowany do współczesnych realiów, czyli do sytuacji, w której z Internetem łączy się praktycznie każde urządzenie w domu. Kolejnym aspektem, na który użytkownicy zaczęli zwracać większą uwagę jest zasięg sieci bezprzewodowej. Klienci zrozumieli, że nie wystarczy, gdy mają dobre połączenie tylko w pobliżu routera. Dążą do zbudowania wydajnej sieci, której zasięg obejmie cały dom. Nadal jest wiele osób, które będą szukać wydajnych rozwiązań dopiero, gdy sytuacja ich do tego zmusi. Wydaje się, że zagrożenie kolejnymi falami Covid-19 będzie skutkowało znacznie zwiększonym popytem na urządzenia sieciowe.
Niesłabnącą popularnością cieszą się dwuzatokowe modele NAS-ów dla użytkowników domowych i małych firm. Wielu klientów decyduje się na przechowywanie danych na urządzeniach oferujących RAID i migawki, a nie tylko na dyskach zewnętrznych. Wśród użytkowników domowych widać też szczególnie zapotrzebowanie na rozwiązania umożliwiające uzyskiwanie wyższych prędkości w sieci, a więc na routery Wi-Fi 6 czy karty rozszerzeń 2,5GbE. Potrzebę poprawy szybkości i wydajności mają przede wszystkim gracze. Takich użytkowników interesują routery Wi-Fi 6 z 10 GbE, przełączniki 2,5 GbE/10 GbE i NAS-y, pozwalające na przechowywanie dużych ilości danych. Odnotowujemy też potrzebę zabezpieczenia danych i zapewnienia ich dostępności. Rośnie zainteresowanie NAS-ami, które nie tylko pozwalają na przechowywanie plików, ale też oferują dodatkowe funkcje, w tym multimedialne, serwery VPN czy SD-WAN dla firm, możliwość tworzenia backupów, migawek i udostępniania danych użytkownikom zdalnym.
Artykuł Domowe sieci przed nową falą popytu pochodzi z serwisu CRN.
]]>Artykuł Chmura otworzyła nowe możliwości pochodzi z serwisu CRN.
]]>Teddy Kuo Od kilku lat granica między oczekiwaniami małych i dużych klientów bardzo się zaciera. Widać to dobrze na przykładzie smartfonów. Ich użytkownicy, niezależnie od wielkości firmy, korzystają z podobnych narzędzi dzięki temu, że mają dostęp do całego ekosystemu wzajemnie zależnych od siebie rozwiązań i usług zapewniających płatności elektroniczne, wymianę informacji, przechowywanie danych w chmurze itd. Jakość i wysoka dostępność tych usług gwarantowana jest zarówno indywidualnym klientom, jak i pracownikom największych korporacji. Dlatego poziom oczekiwań mniejszych odbiorców znacznie wzrósł.
Czy ma to miejsce również w branży IT?
Jak najbardziej. Trzeba pamiętać, że smartfony to małe komputery, ale podobny poziom oczekiwań dotyczy także usług, z których korzystają użytkownicy zwykłych komputerów oraz coraz większej liczby innych urządzeń podłączonych do internetu, m.in. serwerów NAS i telewizorów. Dla przykładu, my na początku specjalizowaliśmy się wyłącznie w małych urządzeniach do przechowywania danych, ale później zaczęliśmy je rozbudowywać o nowe funkcje i zwiększać ich wydajność. Pierwotnym zamysłem było skierowanie tego sprzętu głównie na rynek małych i średnich firm, ale zauważyliśmy, że z wielu funkcji chcą korzystać także odbiorcy indywidualni. Dlatego od pewnego czasu wzbogacamy funkcjonalność naszych rozwiązań, biorąc pod uwagę potrzeby obu wspomnianych grup.
Z których funkcji, przeznaczonych pierwotnie dla firm, korzystają najczęściej osoby prywatne?
Są dwa typy takich funkcji. Do pierwszego należy zaliczyć te, z których użytkownicy korzystają świadomie. Najczęściej są to narzędzia do backupu lub synchronizacji danych między różnymi serwerami NAS, znajdującymi się w różnych miejscach, np. u poszczególnych członków rodziny. W ten sposób użytkownicy zapewniają sobie replikację danych, ale mogą też dzielić się fotografiami czy nagraniami wideo. Natomiast z wielu funkcji i technik przeznaczonych dla większych firm użytkownicy prywatni korzystają nieświadomie i w ten sposób zdefiniowałbym ich drugi typ. Chodzi przede wszystkim o coraz powszechniej stosowaną sztuczną inteligencję oraz narzędzia zapewniające wysoką dostępność lub zwiększające wydajność rozwiązań IT. Techniki te zaś wykorzystywane są w wielu innych funkcjach, chociażby w wyszukiwarce danych i w module wykrywania aktywności złośliwego kodu, szczególnie ransomware’u.
Czy w momencie zakupu najmniejsi użytkownicy wiedzą już jakie funkcje ma produkt i w jaki sposób będą z niego korzystać?
O wszystkich funkcjach na pewno nie wiedzą, bo jest ich po prostu zbyt wiele. Dlatego ważna jest rola sprzedawcy, który podczas rozmowy z klientem powinien pokazać mu, jakim sposobem jego potrzeby zostaną zaspokojone, a problemy rozwiązane. Oczywiście, rozmowa najczęściej zaczyna się od backupu, bo nadal większość użytkowników wykonuje kopie na zewnętrzny dysk w momencie, gdy sobie o tym przypomni. Natomiast, gdy korzystając z serwera NAS, wejdą już do wspomnianego ekosystemu, sami zaczynają odkrywać kolejne możliwości. Na szczęście nie brakuje niezależnych źródeł informacji, forów, filmów na YouTube itd. Korzystanie z takich pamięci masowych dziś ogranicza już praktycznie tylko wyobraźnia. Ale widzimy jeszcze jedną korzyść zarówno dla nas, jak i dla naszych partnerów z kanału dystrybucyjnego. Korzystający z coraz większej liczby funkcji klient indywidualny może zarekomendować je w swojej firmie, dzięki czemu pojawia się szansa na sprzedaż kolejnego urządzenia, odpowiednio większego, a więc gwarantującego większy zysk.
Trzeba przyznać, że funkcjonalność serwerów NAS i wielu innych narzędzi IT, z których mogą korzystać osoby indywidualne i bardzo małe firmy, zwiększyła się ogromnie. Ale czy oczekiwania użytkowników rosną równie szybko?
Najważniejszą zmianą, która wpływa na korzystanie z narzędzi teleinformatycznych, jest wejście na stałe do naszego życia chmury obliczeniowej. Dziś użytkownicy nie tylko czytają treści opublikowane w internecie, ale też korzystają z dobrodziejstw w pełni hybrydowych środowisk: wykonują backup do chmury, oglądają filmy publikowane w różnych serwisach, sami też dzielą się swoją twórczością. Coraz więcej oczekiwań związanych jest nie tylko z funkcjonalnością, ale też z wydajnością tych procesów. Jeszcze kilka lat temu nie było problemem wstrzymanie się na chwilę z pracą ze względu na przeprowadzany backup. Dziś użytkownicy oczekują, że będzie dokonywany automatycznie, a do tego niezauważalnie i bez wpływu na realizowane przez nich zadania. Nasi klienci są też coraz bardziej świadomi wartości przetwarzanych przez nich danych. Dlatego m.in. wprowadziliśmy możliwość przeszukiwania archiwum poczty elektronicznej, jeżeli jej kopia jest przechowywana na serwerze NAS.
Jednak, gdy chmura stała się popularna i ludzie zauważyli płynące z niej korzyści, wielu producentów rozwiązań IT mówiło, że może ona stanowić pewne zagrożenie. Technicznie przecież nic nie stoi na przeszkodzie, aby użytkownicy w niej umieszczali wszystkie swoje dane i niemal w czasie rzeczywistym mieli do nich dostęp, mimo że nie posiadają własnego repozytorium. Obecnie, jak już ustaliliśmy, dominuje model hybrydowy. Ale czy istnieje ryzyko, że w pewnym momencie szala tej wagi całkowicie przechyli się na stronę chmury?
Myślę, że jeszcze długo tak się nie stanie, i to z kilku powodów. Wydajność transferu danych do chmury rzeczywiście jest bardzo duża, ale wciąż niewystarczająca np. do prowadzenia wymagających sztucznej inteligencji zaawansowanych operacji, szczególnie jeśli procesowi podlegają duże zbiory danych. Zresztą w przypadku funkcji bardziej skomplikowanych niż backup czy archiwizacja online konieczne jest właściwe zintegrowanie lokalnych rozwiązań IT z chmurą, co wymaga eksperckiej wiedzy. Oprócz tego mamy coraz więcej regulacji prawnych wprowadzających takie obostrzenia, że korzystanie z chmury nie zawsze jest opłacalne. Czasem to dmuchanie na zimne, ale fakt, że bezpieczeństwo danych w chmurze nie jest stuprocentowe, chociaż większe niż w wielu firmach. Tymczasem praktycznie wszystkie przedsiębiorstwa, a także użytkownicy indywidualni, mają takie dane, których ujawnienie mogłoby się skończyć katastrofą, jeśli nie biznesową, to wizerunkową. W ciągu ostatnich kilku lat obserwowaliśmy takie przypadki. W efekcie znacznie rozpowszechniło się i umocniło przekonanie, że z chmury należy korzystać bardzo ostrożnie. Natomiast istnieją dziedziny, w których wypracowano już odpowiednie standardy i dobre praktyki – najważniejszą są płatności elektroniczne.
Ze względu na możliwości produkowanego obecnie sprzętu i oprogramowania nasuwa się pytanie, czy istnieje jeszcze dziedzina, której odkrycie zapewni rewolucję rynkową. Od pewnego czasu bowiem mamy do czynienia raczej z ewolucją.
I zapewne dalej tak będzie. W przypadku serwerów NAS przez dłuższy czas rozwijane będą funkcje (i ich wydajność), takie jak backup, archiwizacja, udostępnianie w różny sposób treści multimedialnych. Natomiast szybciej i dokładniej, głównie dzięki sztucznej inteligencji, będzie się odbywało wyszukiwanie danych oraz analizowanie poziomu ich zabezpieczeń. Użytkownicy mają dziś do dyspozycji relatywnie tanie dyski o pojemności kilkunastu terabajtów, których szybkie zindeksowanie i skuteczne przeszukanie staje się naprawdę dużym wyzwaniem. Dlatego zgromadzone na nich dane najpierw trzeba zrozumieć i na tym będziemy skupiali się w najbliższej przyszłości.
W jaki sposób dbacie o to, aby z bardziej zaawansowanych funkcji korzystali początkujący użytkownicy?
Przede wszystkim staramy się ułatwić korzystanie z nich. Każda uruchamiana funkcja jest prekonfigurowana i użytkownikowi proponowane są domyślne ustawienia. Według naszych szacunków spełniają one wymogi klientów w 90 proc. przypadków, chociaż oczywiście sami muszą mieć ogólną świadomość celu, jaki chcą osiągnąć. Bardziej zaawansowanym użytkownikom zostawiamy wolną rękę.
Ci jednak lubią eksperymentować – często decydują się na samodzielne budowanie macierzy dyskowej i skorzystanie z oprogramowania bazującego na otwartym źródle, chociażby FreeNAS. Czy tego typu projekty uważacie za poważną konkurencję?
Przyglądamy się im, ale nie zauważamy, aby odbierały nam klientów. Najmniej doświadczeni szukają gotowych rozwiązań, bo w przypadku problemów nie chcą się martwić, czy sobie z nimi poradzą. Klienci średnio zaawansowani od czasu do czasu decydują się na eksperymenty z otwartym oprogramowaniem, ryzykując problemy związane z jego kompatybilnością ze sprzętem, na które sami muszą później znajdować rozwiązanie. Więksi klienci też wolą zamknięte rozwiązania, bo przeszły odpowiednie testy i gwarantują ciągłość biznesową. Dlatego nie postrzegamy projektów bazujących na otwartym źródle jako dużej konkurencji. Zachęcamy klientów, żeby kupowali nasze produkty, bo zapewniamy wsparcie techniczne i gwarancję. Unikają tym samym dyskusji, czy za ewentualny problem odpowiada sprzęt czy oprogramowanie… Klienci, którzy są zainteresowani eksperymentowaniem, niech spróbują, nabiorą doświadczenia, stracą czas na radzenie sobie z problemami i… w końcu kupią profesjonalne, przetestowane rozwiązanie.
Do tego dochodzi kwestia bezpieczeństwa. W przeszłości zdarzały się przypadki ataków złośliwego kodu na serwery NAS, ale w ubiegłym roku było ich wyjątkowo dużo. Na tych serwerach często zgromadzone są strategiczne dane, więc urządzenia te powinny być zdolne chronić owe dane przed utratą, ale też wyciekiem i zaszyfrowaniem przez ransomware. Jaką macie strategię i taktykę w tym zakresie?
Na całym świecie działa kilka milionów naszych urządzeń, więc zapewnienie im bezpieczeństwa jest absolutnym priorytetem. Mamy specjalny zespół, który przez całą dobę monitoruje sytuację, a w razie wykrycia ataku błyskawicznie opracowuje aktualizację firmware’u i ją publikuje. Jedynym wyzwaniem jest nakłonienie klientów do regularnego sprawdzania, czy dostępne jest nowe oprogramowanie. Czasami słyszymy narzekania, że aktualizacje publikowane są zbyt często, a przecież cyberprzestępcy są aktywni cały czas…
Może tego typu poprawki systemów bezpieczeństwa powinny być instalowane automatycznie, nawet bez wiedzy użytkownika?
Rozważaliśmy takie rozwiązanie, ale byłoby ryzykowne. Na razie w branży nikt go nie stosuje, jeżeli użytkownik nie wyrazi zgody. Finalnie to on bowiem bierze odpowiedzialność za swoje dane. Znamy opinie klientów: wielu woli wiedzieć, co się dzieje z ich sprzętem i samodzielnie podejmować stosowne decyzje. Zresztą zagadnienie jest dość skomplikowane, bo bezpieczeństwo to też pewien system działań i zakresu odpowiedzialności. Część użytkowników uważa, że to rządy powinny być odpowiedzialne za łapanie przestępców działających w sieci, tak jak łapią działających w świecie rzeczywistym. Ale „czyszczenie” danych przesyłanych przez internet nosiłoby wtedy znamiona cenzury i wiemy, jakie są tego efekty. Można je zaobserwować m.in. w Chinach. Dlatego na razie zgadzamy się z założeniem, że to właściciel danych zawsze za nie odpowiada, my zaś i różnego typu usługodawcy możemy tylko pomagać w ramach usług.
Także resellerzy mogą pomóc w zapewnieniu bezpieczeństwa użytkownikom. Jak ważny w obsłudze najmniejszych odbiorców jest ten kanał sprzedaży?
Cała nasza sprzedaż odbywa się za pośrednictwem resellerów, ale największe korzyści czerpią z tego niedoświadczeni klienci, którym nasi partnerzy mogą dostarczyć serwer wyposażony w dyski i skonfigurowany zgodnie z ich potrzebami. Prosumerzy, czyli profesjonalni konsumenci, oraz informatycy w firmach radzą sobie doskonale sami. Chcę skorzystać z okazji i pochwalić polskich resellerów i integratorów. W przeciwieństwie do kolegów w innych europejskich krajach naprawdę dbają o relacje i współpracę z dostawcą, co jest bardzo ważne w tym modelu sprzedaży. Dzięki temu razem z nimi łatwo i szybko rozpoczynamy nowe kampanie informacyjne oraz promocje, a także edukujemy klientów.
Jak wspieracie resellerów z wartością dodaną?
Koszt ich pracy jest znacznie większy niż ponoszony przez właścicieli e-sklepów, dlatego resellerom, którzy są dobrze wykształceni, znają produkty i rejestrują projekty, gwarantujemy dodatkowe rabaty. Oczywiście, podejmujemy też wiele działań edukacyjnych – uczymy sprzedawców i pokazujemy, że jesteśmy zaufanym partnerem, współorganizujemy seminaria, konferencje i szkolenia dla użytkowników końcowych.
Jaki odsetek urządzeń nabywają klienci indywidualni i SOHO, a jaki większe firmy?
Wyniki są różne, w zależności od kraju i siły nabywczej jego obywateli. Średnio na świecie użytkownikom indywidualnym sprzedajemy do 60 proc. urządzeń. W Polsce odsetek ten jest trochę niższy, wynosi 40–45 proc. Duże zainteresowanie osób indywidualnych widzimy w krajach, gdzie popularna jest zdalna praca w domu – serwery NAS wykorzystywane są do zabezpieczania ważnych, firmowych plików.
Rozmawiał
Krzysztof Jakubik
Teddy Kuo jest współzałożycielem firm IEI Integration Corp. oraz QNAP Systems, w której od samego początku (2004 r.) pełni funkcję prezesa. W 2019 r. przeprowadził QNAP przez proces transformacji, w wyniku której firma zaczęła bardziej skupiać się na takich dziedzinach jak przetwarzanie na brzegu sieci (edge computing), infrastruktura sieciowa, zarządzana w chmurze oraz inteligentne systemy przechowywania danych.
Artykuł Chmura otworzyła nowe możliwości pochodzi z serwisu CRN.
]]>Artykuł Profesjonalne oprogramowanie w serwerach QNAP pochodzi z serwisu CRN.
]]>
Serwery QNAP mogą funkcjonować jako miejsce przechowywania kopii bezpieczeństwa danych ze stacji roboczych, serwerów, wirtualnych maszyn czy zewnętrznych dysków podłączanych przez port USB. W zestawie jest bezpłatne oprogramowanie QNAP NetBak Replicator do komputerów PC, a użytkownicy komputerów Apple z systemem Mac OS X mogą skorzystać z mechanizmu Time Machine.
Administratorzy serwerów mają możliwość zastosowania protokołu rsync do wykonywania kopii bezpieczeństwa zgodnie z harmonogramem albo skorzystania z usługi RTRR (Real-Time Remote Replication) do sporządzenia kopii z serwera Turbo NAS, znajdującego się w innym miejscu bądź z serwera FTP. Kopie zapasowe danych z serwera QNAP można też przechowywać w chmurze, korzystając z takich usług, jak Amazon S3, Amazon Glacier, ElephantDrive, Microsoft Azure, Symform, Google Drive czy Dropbox.
QTS oferuje wiele sposobów zabezpieczania danych przed kradzieżą lub utratą. System ten spełnia nawet wymogi określone w dokumencie HIPAA, co oznacza, że jest wystarczająco bezpiecznym rozwiązaniem do przechowywania medycznych danych pacjentów.
Administratorzy systemu Windows mogą korzystać z uwierzytelniania użytkowników za pomocą systemów Active Directory i Access Control List (ACL), dzięki czemu nie muszą równolegle zarządzać ich uprawnieniami w dwóch środowiskach. Turbo NAS może też funkcjonować jako kontroler domeny Windows, ze względu na zgodność z protokołem SAMBA v4.
QNAP uważnie śledzi pojawianie się nowych zagrożeń, których ofiarą mogą paść użytkownicy serwerów Turbo NAS. Przykładem rozwiązań zabezpieczających może być nowa wersja firmware’u dla serwerów Turbo NAS, oznaczona numerem 4.1.1 Build 20 140 927, zawierająca poprawkę uodporniającą urządzenia na ataki, które wykorzystują ostatnio wykrytą lukę w Bash (podatność opisana w katalogu CVE pod numerem CVE-2014–627).
Nowa wersja QTS 4.1.1 zapewnia także pełne szyfrowanie urządzeń Turbo NAS, co – w porównaniu z szyfrowaniem wybranych folderów – znacząco podnosi bezpieczeństwo przechowywanych danych.
Serwery QNAP Turbo NAS są zgodne z protokołami iSCSI i NFS, a także mają certyfikaty przyznane przez głównych twórców rozwiązań wirtualizacyjnych: VMware Ready, Citrix Ready oraz Microsoft Hyper-V compatible. To oznacza, że mogą być pamięcią masową dla maszyn wirtualnych i nie wpływają negatywnie na wydajność ich pracy.
Nowe modele serwerów Turbo NAS zostały wyposażone w funkcję samodzielnego serwera wirtualnych maszyn (serwerów i desktopów) dzięki wbudowanemu modułowi Virtualization Station, bazującemu na mechanizmie KVM. W ten sposób możliwe staje się centralne przechowywanie i uruchamianie kilkunastu wirtualnych maszyn z różnymi wersjami systemów Windows, Linux i Unix.
Administratorzy w firmach, w których istnieje środowisko wirtualne, mogą zaimportować do Virtualization Station gotowe wirtualne maszyny. Mają też do dyspozycji funkcję kopii migawkowych (snapshot), zapewniającą wykonywanie kopii bezpieczeństwa maszyny w stanie z danej chwili.
Autoryzowanymi dystrybutorami serwerów plików QNAP w Polsce są: ABC
Data, EPA Systemy, Konsorcjum FEN oraz Veracomp.
Artykuł powstał we współpracy z firmą QNAP.
Artykuł Profesjonalne oprogramowanie w serwerach QNAP pochodzi z serwisu CRN.
]]>Artykuł QNAP Systems w Veracompie pochodzi z serwisu CRN.
]]>Artykuł QNAP Systems w Veracompie pochodzi z serwisu CRN.
]]>