Artykuł 10 trendów, które kształtują rynek centrów danych pochodzi z serwisu CRN.
]]>Do najważniejszych trendów w centrach danych trzeba obecnie zaliczyć postępowanie największych globalnych producentów infrastruktury DC, którzy robią wszystko, by w rywalizacji z dostawcami chmury publicznej odzyskać tracone udziały w budżetach klientów. Na froncie innowacji technologicznych dla DC uwagę zwraca też duże ożywienie w segmencie procesorów serwerowych. Z jednej strony narasta konkurencja między Intelem a AMD, z drugiej Nvidia próbuje wzmocnić pozycję jako unikalnego dostawcy dla DC, tworzącego bardzo kompleksową ofertę.
Trudno przy tym nie zauważyć strategii prywatnych funduszy inwestycyjnych, które albo dofinansowują dostawców centrów danych miliardami dolarów, albo wręcz ich przejmują.
Prawdopodobnie najbardziej wybijającym się obecnie trendem w centrach danych jest pęd w kierunku nowego modelu, w jakim klienci mają kupować i utrzymywać rozwiązania dla centrów danych. Oparcie się na rzeczywistej konsumpcji IT i zasadzie pay-per-use to coś, co wiodący dostawcy chmury publicznej oferowali już od lat. To był ich as w rękawie. Od jakiegoś czasu także najwięksi globalni dostawcy infrastruktury centrów danych, jak HPE i Dell Technologies, zwielokrotniają swoje wysiłki zmierzające do tego, by na takich samych zasadach korzystało się również z ich oferty. Przykładowo, Dell Technologies zaprezentował miesiąc temu Apex – oparte na konsumpcji portfolio usługowe z infrastrukturą as-a-service, które obejmuje m.in. Apex Data Storage Services i Apex Cloud Services. Producent twierdzi, że oferta Apex w porównaniu z tym, co proponują dostawcy chmury publicznej zapewnia klientom prywatny cloud, który jest lepszy pod względem kosztów, kontroli i prostoty użytkowania.
– Jeśli przyjrzymy się chmurze publicznej, to jest tam tak wiele ukrytych kosztów, które ponoszą klienci, że oferowana przez nas zdolność do zdobywania przewagi konkurencyjnej i przejrzyste podejście do cen są czymś, na co klienci naprawdę dobrze reagują — stwierdziła Allison Dew, dyrektor ds. globalnego marketingu Della, podczas konferencji Dell Technologies World. Nie można zapominać, że Dell Technologies nie jest pierwszą firmą, która wprowadza taki model — od trzech lat HPE promuje swoją ofertę GreenLake. Komentując ruch Della, przedstawiciele HPE widzą w nim potwierdzenie tego, że sami już wcześniej wybrali właściwy kierunek rozwoju. Teraz, przy szerszej ofercie, zainteresowanie rynku i wykorzystanie data center as-a-service w wersji on-prem powinno rosnąć.
Trzech gigantów chmury publicznej co kwartał wydaje miliardy na budowę i wyposażenie nowych hiperskalowych centrów danych na całym świecie, zwiększając zasięg swoich usług w chmurze. W rezultacie Amazon, Microsoft i Google reprezentują łącznie ponad 50 proc. globalnej branży dużych centrów danych.
Liczba największych DC, obsługiwanych przez hiperskalowych dostawców, takich jak wymieniona trójka, sięgnęła pod koniec 2020 r. niemal 600. To dwa razy więcej niż było ich w 2015 r. Pandemia COVID-19 spowodowała rekordowy wzrost wydatków na centra danych w przypadku AWS-u, Microsoftu i Google’a, które tylko w trzecim kwartale 2020 r. wydały na ten cel 37 mld dol. Dwa miesiące temu Microsoft ujawnił najśmielszy plan rozwoju własnych centrów danych w swojej historii. Gigant z Redmond chce budować od 50 do 100 nowych obiektów każdego roku. Plan ten zakłada między innymi przeznaczenie 1 mld dol. na stworzenie kilku regionów hiperskalowych centrów danych w Malezji.
Zgodnie z najnowszą prognozą Gartnera wartość globalnego rynku centrów danych osiągnie w 2021 r. 237 mld dol., co stanowi wzrost o ponad 7 proc. rok do roku. Z powodu pandemii COVID-19 w 2020 r. wiele przedsiębiorstw koncentrowało się przede wszystkim na utrzymywaniu swojej ciągłości działania i jak najsprawniejszym funkcjonowaniu w niecodziennych warunkach. W rezultacie nie skupiały się zbytnio na inwestycjach w infrastrukturę centrów danych i wstrzymywały duże projekty informatyczne. Jednakże, jak zauważają analitycy Gartnera, wciśnięty na jakiś czas przycisk „pauzy”, zostanie w sektorze biznesowym do końca 2021 r. zwolniony. Budżety zostaną uwolnione, a wydatki na infrastrukturę centrów danych będą z roku na rok rosły przynajmniej do 2024 r.
Intel, od wielu lat niekwestionowany lider w dziedzinie procesorów dla serwerów, musi się obecnie liczyć z konkurencją ze strony AMD, której nie powinien lekceważyć. Jak wynika z najnowszego raportu Mercury Research, dotyczącego udziałów w rynku procesorów x86, AMD wraz ze swoimi układami EPYC odnotowało ostatnio wyraźny wzrost udziału na rynku mikroprocesorów dla serwerów w porównaniu do tego, jak radzi sobie Intel. W pierwszym kwartale 2021 r. udział procesorów AMD w zastosowaniach serwerowych wzrósł o 1,8 punktu, do 8,9 proc. Według Mercury Research tak duży skok AMD odnotowało w sprzedaży tego rodzaju układów dawno, bo w 2006 r., gdy wprowadziło procesor Opteron. Dzięki rosnącej konkurencji rośnie wydajność procesorów serwerowych, dzięki czemu klienci w swoich centrach danych korzystają z większej szybkości przetwarzania, zwinności i możliwości wprowadzania nowych funkcji. Na początku tego roku Intel wprowadził trzecią generację procesorów Intel Xeon Scalable, o nazwie kodowej Ice Lake. Podobnie AMD wprowadziło w tym roku swoje procesory EPYC Milan trzeciej generacji, chwaląc się, że są one najbardziej wydajnymi układami serwerowymi w branży.
W kwietniu Nvidia zaprezentowała oparty na ARM procesor dla centrum danych, przeznaczony m.in. do sztucznej inteligencji i obliczeń o wysokiej wydajności (HPC). Ma on zapewnić 10 razy wyższą wydajność w zastosowaniach AI niż jeden z najszybszych procesorów AMD z serii EPYC. Tym posunięciem Nvidia chce uzyskać kontrolę nad komponentami obliczeniowymi, akceleracyjnymi i sieciowymi w serwerach. Wraz z pojawieniem się na początku 2023 r. nowego procesora dla centrum danych (o nazwie Grace), układ ten będzie stanowić konkurencję dla procesorów x86 od Intela i AMD. Związane z centrum danych plany rozwoju Nvidii mają obejmować procesory GPU, DPU oraz CPU, a każda linia produktów będzie mieć co dwa lata aktualizowaną architekturę. Nvidia coraz częściej postrzega siebie jako firmę zajmującą się „kompletnym przetwarzaniem w skali centrum danych”, co skłoniło ją do optymalizacji aplikacji na poziomie całego systemu. Do swoich procesorów graficznych, powszechnie wykorzystywanych w data center, Nvidia dodała w zeszłym roku produkty sieciowe dla serwerów, w wyniku zakupu Mellanox Technologies za 7 mld dol. Teraz stara się również sfinalizować przejęcie firmy ARM o wartości 40 mld dol., której architektury procesorowe są wykorzystywane w Grace. Dodatkowo, Nvidia kontynuuje zacieśnianie swojego sojuszu z VMware’em, potentatem oprogramowania do wirtualizacji centrów danych.
Globalna pandemia przyspieszyła potrzebę ograniczenia zależności centrów danych od manualnych operacji i interwencji człowieka. Pomocą w tym ma być wysyp innowacji w zakresie automatyzacji oprogramowania i sztucznej inteligencji. Branża centrów danych dostrzega korzyści płynące z wykorzystania bardziej inteligentnych i autonomicznych systemów do prostych zadań oraz z rozproszenia projektowanych środowisk. W przeprowadzonym w 2021 r. badaniu organizacji AFCOM, dotyczącym branży centrów danych, ponad 40 proc. respondentów podało, że w ciągu najbliższych trzech lat wdroży robotykę i automatyzację do monitorowania i utrzymania centrów danych, 16 proc. ankietowanych stwierdziło, że już to zrobili, a 35 proc. planuje wdrożyć te rozwiązania do 2024 r. Dzięki automatyzacji centrum danych rutynowe przepływy pracy i procesy – takie jak planowanie, monitorowanie, utrzymanie i dostarczanie aplikacji – mogą być zarządzane i wykonywane bez udziału ludzi.
Nie ma wątpliwości, że globalnie działające fundusze typu private equity będą wciąż inwestować w rynek data center. Będą one przeznaczać miliardy dolarów na wsparcie rozwoju dostawców centrów danych albo wręcz ich przejmować. Robią to zresztą od lat – zwiększając skalę działających dostawców albo rozszerzając ich zasięg geograficzny. Przykładowo, w 2019 r. fundusze odpowiadały za 80 proc. wszystkich przejęć centrów danych, koncentrując się na stymulowaniu wzrostu sprzedaży. Inwestorzy rozumieją teraz bardziej niż kiedykolwiek, że każdy trend IT – od uzyskiwania wyników opartych na danych po transformację cyfrową gospodarki – wymaga infrastruktury.
Według nowych danych Synergy Research Group globalne wydatki przedsiębiorstw na usługi infrastrukturalne chmury osiągnęły w 2020 r. prawie 130 mld dol., co stanowi wzrost o 35 proc. rok do roku. W tym samym czasie wydatki przedsiębiorstw na sprzęt i oprogramowanie dla centrów danych spadły z roku na rok o 6 proc. – do 89 mld dol. To zauważalna zmiana, bo w 2019 r. oba segmenty – chmurowych usług infrastrukturalnych oraz sprzętu i oprogramowania dla centrów danych – były niemal równe pod względem wartości (po około 95 mld dol. każdy). Chociaż na dane z roku 2020 można spojrzeć jako pewnego rodzaju anomalię, to i tak dla Johna Dinsdale’a, głównego analityka w Synergy Research Group, trend jest już „absolutnie oczywisty”. – Minęło dziesięć lat, zanim wydatki przedsiębiorstw na usługi w chmurze doścignęły wydatki na sprzęt i oprogramowanie dla centrów danych, a w kolejnym roku rynek usług w chmurze przerósł rynek produktów dla data center. W ciągu ostatniej dekady CIO i szefowie biznesu coraz częściej, głosując swoimi portfelami, opowiadali się za tym, że usługi w chmurze to dobre rozwiązanie. Spodziewamy się, że ten trend będzie tak wyglądał przez następne lata – uważa John Dinsdale.
Branża centrów danych znajduje się na wyjątkowej pozycji, jeśli chodzi o przyśpieszone przyjęcie praktyk zrównoważonego rozwoju, takich jak wykorzystanie energii odnawialnej czy baterii litowo-jonowych, w celu ograniczenia zmian klimatycznych na poziomie globalnym.
Klienci, udziałowcy, inwestorzy, a także liderzy światowej polityki coraz częściej domagają się od przedsiębiorstw wzięcia odpowiedzialności za wpływ na klimat. Innowacje w zakresie efektywności energetycznej, takie jak chłodzenie cieczą, a także wykorzystanie energii odnawialnej są udziałem największych dostawców usług data center, takich jak AWS, Google, Facebook i Microsoft.
W 2021 r. zrównoważony rozwój centrów danych stał się priorytetem także dla klientów korporacyjnych. Dlatego, wraz z postępem transformacji cyfrowej, również inwestorzy stali się częścią zielonej rewolucji energetycznej, ponieważ starają się tworzyć bardziej ekologiczne oferty IT. Przykładowo, wielcy dostawcy kolokacyjnych centrów danych, tacy jak Equinix i Digital Realty, pozyskali fundusze przy użyciu „zielonych obligacji”, i można się spodziewać, że inni pójdą w ich ślady.
W czasie, gdy filmy zmierzają w kierunku zdalnej pracy i edukacji, to wraz z pojawieniem się inteligentnych technologii w biurach i odległych lokalizacjach kolejną granicą centrum danych staje się edge. Pojawiają się dostawcy specjalizujący się w dostarczaniu brzegowych data center, tacy jak EdgeConneX, a wiodący na rynku dostawcy infrastruktury i zasilania w szybkim tempie i na dużą skalę będą tworzyć dla edge computingu nowe produkty. Wielu producentów – od Dell Technologies i HPE, przez Schneider Electric i Vertiv po AWS, inwestuje w funkcjonalności brzegowe i usługi, tworząc referencyjne i specyficzne architektury edge dla konkretnych branż.
Powstało duże zapotrzebowanie na przetwarzanie brzegowe, stymulowane różnymi technologiami, w tym sztuczną inteligencją, Internetem rzeczy oraz pierwszymi wdrożeniami 5G. Gartner przewiduje, że do 2025 r. aż 75 proc. danych generowanych przez przedsiębiorstwa będzie tworzonych i przetwarzanych poza scentralizowanym centrum danych lub chmurą. Ta ogromna zmiana wymaga większego nacisku na tworzenie bezpiecznych, efektywnych i niezawodnych rozwiązań brzegowych w centrach danych, niezależnie od ich wielkości.
Artykuł 10 trendów, które kształtują rynek centrów danych pochodzi z serwisu CRN.
]]>Artykuł TOP 10: najważniejsze trendy na CES 2020 pochodzi z serwisu CRN.
]]>Na targach CES 2020 można było przyjrzeć się wszystkim wiodącym obecnie trendom technologicznym. Z jednej strony prezentowano tam rozwiązania już dostępne na rynku. Z drugiej – nie brakowało też takich, na które trzeba będzie poczekać jeszcze wiele miesięcy (na razie można było się zapoznać z ich koncepcyjnymi prototypami). Generalnie styczniowe wydarzenie dawało dobry przegląd tego, czego możemy się spodziewać w tym roku i następnych latach.
Na kolejnych stronach przedstawiamy 10 najważniejszych trendów CES 2020.
Artykuł TOP 10: najważniejsze trendy na CES 2020 pochodzi z serwisu CRN.
]]>Artykuł Pamięci masowe: 5 trendów na 2019 r. pochodzi z serwisu CRN.
]]>Tymczasem rynek pamięci masowych staje się coraz bardziej nieprzewidywalny. Inwestowanie w rozwiązania dostawców spoza pierwszej dziesiątki okazało się trochę ryzykowne – w ciągu ostatnich kilku lat większość tego typu firm została kupiona przez konkurencję lub innych producentów z branży (taki los podzieliły m.in.: 3par, BlueArc, Brocade, Data Domain, Dot Hill Systems, Isilon, Nimble Storage, SanDisk, Sepaton, SolidFire, sTec, Storwize, Tegile Systems, Texas Memory Systems, Whiptail i XtremIO). Wisienką na torcie było oczywiście przejęcie EMC przez Della w 2015 r.
Klienci natomiast często wyrażają obawy, że zniknięcie z rynku producenta rozwiązania, które kupili, może wywołać perturbacje: brak wsparcia, dostępności części zamiennych, aktualizacji oprogramowania etc. Nastroju nie poprawiają im nawet deklaracje, że kupujący będzie honorował umowy utrzymania zawarte przez nabywaną firmę.
Zniknięciu ponad 20 ważnych graczy z rynku pamięci masowych w ciągu ostatniej dekady towarzyszą zintensyfikowane prace prowadzone głównie przez producentów kości pamięci nad zmianami sposobu zapisywania danych na nośnikach oraz uzyskiwania dostępu do nich. To rodzi kolejne obawy, że kupione urządzenie po dwóch latach może być przestarzałe, a koszty utrzymania wsparcia technicznego – zbliżyć do wartości nowego rozwiązania. Niestety, wszystko wskazuje na to, że tego typu dylematów klienci będą mieli wiele. Dlatego rola ich doradców z zakresu IT stała się nie do przecenienia.
1. Flash będzie wszędzie
O tym, że przyszłość rynku storage związana jest z kośćmi pamięci typu NAND chyba nikogo nie trzeba przekonywać. Powstające z ich wykorzystaniem dyski flash są dziś na tyle tanie, że kupowanie komputera bez SSD nie ma już sensu. Oczywiście opłata za jednostkę pojemności wciąż jest w nich kilkukrotne wyższa niż w przypadku dysków mechanicznych, ale liczba korzyści płynących ze stosowania półprzewodnikowych pamięci do trwałego przechowywania danych jest znacząca.
– Technologia produkcji kości pamięci, których zawartość nie ulega utracie po odłączeniu zasilania, cały czas jest rozwijana – prognozuje Wojciech Wróbel, Presales Manager w Fujitsu. – Komórki TLC przechowujące trzy bity informacji, stosowane są już przez wszystkich dostawców pamięci flash dla przedsiębiorstw. Trwają też intensywne prace nad układami QLC, w których zapisywane będą 4 bity. Standardem stały się też już kości 3D NAND, charakteryzujące się kilkoma nałożonymi na siebie warstwami komórek pamięci. Dzięki temu zdecydowanie wzrosła pojemność pojedynczych dysków SSD. Obecnie producenci macierzy wprowadzają do oferty nośniki o pojemności 30 TB, a więc już dwukrotnie większej niż zapewnia najbardziej pojemny twardy dysk. Natomiast pojawienie się zapowiedzianych przez nich dysków 60 i 120 TB to tylko kwestia czasu.
Od kilku lat intensywnie promowane są macierze all-flash (więcej na ten temat w artykule „Nowe życie pamięci flash dzięki NVMe”, str. 22), ale wzrost ich sprzedaży nie jest tak imponujący, jak zakładali to ich producenci. Konieczność zastosowania bardzo wydajnych kontrolerów, szybkich kart sieciowych i – przede wszystkim – wielu dysków z pamięcią flash o wzmocnionej trwałości spowodowała, że ceny tego typu urządzeń nadal wynoszą setki tysięcy złotych. Usprawiedliwia to tylko fakt, że korzyści z ich stosowania jest wiele – mniejszy pobór prądu, oszczędność miejsca w serwerowni i łatwość uzyskania wysokiej wydajności z zastosowaniem mniejszej niż w przypadku HDD liczby nośników.
Jednak konieczność poniesienia dużego kosztu na zakup macierzy all-flash robi swoje. Dlatego klienci ostrożnie podchodzą do tych urządzeń. Nie pomagają nawet próby „obudowania” oferty dodatkowymi bonusami. Ostatnio popularne stały się gwarancje, w ramach których producenci zapewniają uzyskanie przez klienta konkretnego współczynnika kompresji i deduplikacji. Z reguły wynosi on 3:1 lub 5:1 (w przypadku, gdy gwarancja nie zostanie dotrzymana, producent zobowiązuje się do dostawy bezpłatnych dysków flash, które zapewnią obiecaną pojemność). Niektórzy producenci gwarantują też teoretycznie bezpłatną wymianę kontrolera macierzy na nowszy model co kilka lat. Teoretycznie, bo gwarancja taka obowiązuje tylko wtedy, gdy klient regularnie korzysta z usług wsparcia, a więc rozliczając się za nie, bierze na siebie koszt wymiany kontrolera.
Finalnie efekt jest taki, że przedsiębiorstwa zainteresowane są głównie inwestycjami w macierze hybrydowe. Możliwość zainstalowania w nich dysków SSD i stworzenia tzw. warstwy 0 jest wystarczająca w większości przypadków, gdy konieczne jest zwiększenie wydajności macierzy, a firmy nie stać na rozwiązanie typu all-flash. Rosnącą popularnością cieszą się też karty rozszerzeń PCIe do macierzy, na których zainstalowane są kości pamięci flash, wykorzystywane jako cache odczytu.
2. Jeszcze lepsza ochrona danych
W macierze dyskowe standardowo wbudowuje się coraz więcej mechanizmów zapewniających bezpieczeństwo informacji. Do nowych funkcji należy m.in. ochrona nie tylko przed zwykłą utratą danych, ale także przed skutkami ataków cyberprzestępców. Najlepiej z zapewnieniem bezpieczeństwa radzą sobie obecnie wielofunkcyjne serwery NAS takich firm jak QNAP, Synology czy Netgear. Na bogatej liście działającego w nich software’u znajduje się m.in. oprogramowanie antywirusowe oraz narzędzia umożliwiające backup online do chmury.
We wszystkich systemach dyskowych duży wpływ na wyższy poziom ochrony ma zastosowanie pamięci flash jako nośnika danych. Dzięki temu wiele procesów odbywa się szybciej, jak np. odtworzenie struktury RAID, wykonanie kopii migawkowych czy kontrola spójności bloków danych lub systemów plików.
Producenci macierzy dyskowych coraz aktywniej współpracują też z dostawcami oprogramowania do backupu i innych narzędzi ochronnych. Już wkrótce można spodziewać się szeregu certyfikowanych pakietów, dzięki którym aplikacja odpowiadająca za bezpieczeństwo danych będzie wykorzystywała pamięć masową jako jeden z elementów do zapewniania ochrony, np. będzie korzystała z kopii migawkowych do odzyskiwania plików i przywracania komputera do pracy po skutecznym zaszyfrowaniu jego dysku w wyniku działania ransomware’u.
3. Storage w chmurach
Pierwsze próby przechowywania danych w publicznej chmurze (StaaS – Storage as a Service,), do których zapewniony miał być szybki i gwarantowany dostęp, wywoływały tylko uśmiech politowania. Nawet gdy korzystano z oferty usługodawcy, którego siedziba znajdowała się niedalekiej odległości od klienta, czas dostępu do danych wynosił kilkanaście lub kilkadziesiąt milisekund (a więc kilkukrotnie więcej niż w przypadku macierzy dyskowej zainstalowanej lokalnie). Szybkość transferu danych też pozostawiała wiele do życzenia, a poza tym trudno było zagwarantować jego stabilność. Oferta przechowywania danych w chmurze nie cieszyła się dużym zainteresowaniem, klienci czekali, aż wypracowane zostaną nowe modele biznesowe, które usprawiedliwią ten model – zarówno pod względem biznesowym, jak i operacyjnym.
Ten czas nadszedł właśnie teraz. Łącza internetowe są znacznie lepszej jakości, mamy też coraz więcej krajowych dostawców usług StaaS, co zapewnia nie tylko szybszy dostęp do danych, ale też gwarantuje zgodność z restrykcyjnym europejskim prawem. Przechowywanie danych w zewnętrznej serwerowni zyskało też sens w sytuacji, gdy dostęp do nich jest niezbędny dla dużej liczby pracowników wykonujących swoje obowiązki poza siedzibą firmy. Wówczas zapewnienie gwarantowanej łączności z zewnętrznym centrum danych jest łatwiejsze niż budowa infrastruktury wysokiej dostępności (z uwzględnieniem podwójnego łącza internetowego, zasilania, klimatyzacji itd.) w lokalnej, firmowej serwerowni.
Coraz częściej dochodzi też do sytuacji, że – aby zapewnić sobie gwarancję szybkiego dostępu do danych – firmy chcą mieć możliwość bezpośredniego przesyłania danych między chmurami różnych dostawców, bez pobierania ich do lokalnego repozytorium i wysyłania z powrotem. Dostawcy usług zauważyli już tę potrzebę, więc w najbliższym czasie można spodziewać się ich reakcji – współpracy z konkurentami bądź udostępnienia otwartych interfejsów zapewniających transfer danych między chmurami. Taką operację umożliwiają już niektóre aplikacje do backupu i archiwizacji danych w przedsiębiorstwach.
Grzegorz Bielawski, Country Manager, QNAP
Przeprowadzone przez naszych inżynierów eksperymenty dowiodły, że mechanizm wykonywania kopii migawkowych z powodzeniem może być wykorzystywany do odzyskiwania danych zaszyfrowanych przez ransomware. Wystarczy regularnie wykonywać kopie zapasowe plików z komputerów na serwer NAS, w którym włączona jest funkcja migawek. Po zaobserwowaniu działania ransomware’u, zarażony komputer oraz serwer NAS należy odłączyć od sieci, usunąć z komputera złośliwy kod szyfrujący pliki przy pomocy oprogramowania antywirusowego, a następnie połączyć z serwerem NAS i korzystając z menedżera migawek odzyskać wszystkie pliki.
Jerzy Adamiak, konsultant ds. systemów pamięci masowych, Alstor
W przypadku pamięci masowych duży sens ma wykorzystanie sztucznej inteligencji. Silniki AI zapewniają nowe sposoby analizy danych – wykorzystywane są przede wszystkim do optymalizacji mechanizmów deduplikacji i kompresji, zwiększania wydajności macierzy dzięki priorytetyzacji zdań w zależności od potrzeb aplikacji, uproszczenia działań administracyjnych i ich automatyzacji oraz zwiększenia poziomu ochrony macierzy i zgromadzonych w niej danych. Algorytmy głębokiego uczenia mogą też pomóc administratorom w podejmowaniu decyzji, które dane mogą trafić do chmury publicznej, a które powinny pozostać na macierzach zgromadzonych w siedzibie firmy.
Maciej Kaczmarek, VAR Account Manager, Netgear
Z badań analityków wynika, że ilość danych w firmach rośnie przynajmniej o 10 proc. rocznie, a wyjątkiem nie jest wcale przyrost rzędu 25 proc. Na tak duży wzrost wpływ ma fakt, że przedsiębiorstwa realizują coraz więcej projektów, w których podstawą są cyfrowe dane. Natomiast jeżeli wśród nich znajdą się pliki multimedialne, ilość potrzebnego miejsca na dane nagle rośnie wykładniczo. Przestrzeń w serwerowni, szczególnie w mniejszych firmach, jest ograniczona. Dlatego warto jest rozszerzyć swoje portfolio rozwiązań o macierze, których projektanci zadbali o oszczędność zajmowanego przez nie miejsca.
4. Sieć ma znaczenie
Pojawienie się w centrach danych szybkich pamięci flash (których prędkość jeszcze wzrośnie dzięki interfejsowi NVMe i pamięci RAM bazującej na kościach NAND) spowodowało, że nośniki informacji przestały być wąskim gardłem, a stała się nim sieć. Co prawda, istnieje wiele rozwiązań infrastruktury sieciowej, które gwarantują szybki i pozbawiony opóźnień transfer danych, ale nie są one często wykorzystywane w firmach, a już na pewno nie w małych i średnich. Wciąż są drogie i dość skomplikowane we wdrożeniu i obsłudze.
Wygląda jednak na to, że jeśli klienci potrzebują wydajnej pamięci masowej, będą zmuszeni także do rozbudowy sieci. Jeszcze większym wyzwaniem będzie sytuacja, w której zapotrzebowanie na tę wydajność będzie rosło w czasie. Takim firmom powinno się rekomendować urządzenia uniwersalne, w których można instalować porty sieciowe o różnej prędkości (w tym 40/100 Gb/s), a także aktualizować oprogramowanie, gdy pojawią się nowe protokoły (jak np. wprowadzany właśnie na rynek NVMe over Fabrics (NVMe-oF).
5. Troska o jakość
Dziedziną często pomijaną w przypadku pamięci masowych jest tzw. jakość usługi (Quality of Service). Parametr ten porównuje czas, w którym następuje reakcja macierzy na żądanie serwera lub komputera dotyczące dostarczenia danych, z tym, czego oczekują administratorzy. Zdefiniowane przez nich szybkości transferu oczywiście będą bardzo różne w zależności od sytuacji. Podczas gdy dla użytkownika nie ma większego znaczenia, czy jego dokument otworzy się lub zapisze w ciągu pół sekundy czy dwóch, tak dla serwera transakcyjnego wydłużenie czasu wykonania operacji z jednej milisekundy do dwóch oznacza utratę połowy wydajności.
Większość macierzy umożliwia analizę parametrów QoS i przedstawienie danych w postaci statystycznej. Ale ewentualne dostrojenie systemu, gdy jego wydajność nie jest satysfakcjonująca, należy do administratora i niestety, nie jest to proste zadanie. Dlatego warto zainteresować się macierzami, które mają wbudowany mechanizm Auto QoS. Jest on realizowany przez oprogramowanie w kontrolerze macierzy, które automatycznie priorytetyzuje zadania zapisu i odczytu oraz dobiera z dostępnej puli nośniki o odpowiedniej wydajności. Tak, aby w pierwszej kolejności sprostać zdefiniowanym przez administratora wymogom QoS.
Artykuł Pamięci masowe: 5 trendów na 2019 r. pochodzi z serwisu CRN.
]]>Artykuł MŚP, czyli powrót do przeszłości pochodzi z serwisu CRN.
]]>Jednak obecnie najbardziej perspektywiczny wydaje się sektor MŚP. Nic dziwnego, że producenci i dystrybutorzy konstruują swoje oferty tak, aby być jak najlepiej przygotowanym do kompleksowej obsługi małego i średniego biznesu. Przykładem jest polski oddział HP Inc., gdzie w tym celu dokonano niedawno znacznej reorganizacji.
Z rozmów z producentami i dystrybutorami wynika, że chociaż użytkownicy sprzętu komputerowego z sektora MŚP zwykle bardzo dokładnie oglądają każdą złotówkę, to wcale nie oznacza, że kupują to, co najtańsze. Przeciwnie, w ich przypadku mamy do czynienia z coraz bardziej dojrzałymi i świadomymi klientami, którzy wiedzą, że ten, kto chce kupić tanio i dobrze, kupuje dwa razy – najpierw tanio, potem dobrze. Zatem w rezultacie najdrożej. Dlatego coraz częściej w transakcjach w segmencie B2B kryterium wyboru stanowią cechy sprzętu, a nie jego cena.
Bardziej opłaca się zakup sprzętu droższego, ale trwałego i wydajnego, który będzie satysfakcjonującym narzędziem w pracy. Jaki to sprzęt? W przypadku komputerów dają się zauważyć dwie dość zaskakujące tendencje. Pierwsza to wzrost popytu na komputery stacjonarne, druga – na rynku pojawiają się maszyny z procesorami AMD.
Jeśli przyjrzeć się tegorocznej sprzedaży sprzętu w sektorze B2B, można odnieść wrażenie, że klienci bardziej niż w poprzednich latach skłaniają się ku komputerom stacjonarnym. Popyt na te ostatnie bowiem nie słabnie, na przenośne zaś – owszem. Prawdopodobnie sytuacja nie zmieni się również w przyszłym roku.
– W pierwszej połowie bieżącego roku krajowy rynek wchłonął nieco ponad 10 proc. mniej notebooków niż rok wcześniej, w drugiej połowie roku spadki są jeszcze większe – mówi Szymon Winciorek, Business Development Manager w Asusie. – W 2018 roku spodziewamy się dalszych spadków na rynku, na poziomie około 5 proc. W związku z tym rynek całościowo osiągnie wielkość sprzedaży z przełomu lat 2006/2007. Całą branżę czeka więc podróż w czasie, ale wstecz…
O podróży wstecz można mówić nie tylko z powodu poziomu sprzedaży notebooków porównywalnego z tym, z jakim mieliśmy do czynienia w poprzedniej dekadzie. I nie tylko dlatego, że – podobnie jak kilkanaście lat temu – komputery stacjonarne nie ustępują już tak chętnie miejsca przenośnym. Stare czasy przypomina też powrót do łask procesorów AMD. Trudno oczywiście przewidzieć, czy będą one stanowiły tak dużą część rynku jak kilkanaście lat temu, czy pozostaną alternatywą, dzięki której Intel będzie zmuszony nie tylko do oferowania coraz lepszych produktów, ale też do obniżania cen swoich układów. Na razie fakty są takie, że maszyny z procesorami AMD można znaleźć w ofercie praktycznie każdego producenta komputerów, z czym jeszcze rok temu nie mieliśmy do czynienia.
Klienci z sektora MŚP najchętniej wybierają desktopy o małych gabarytach. W przypadku maszyn przenośnych podobnie, bo szczególnym zainteresowaniem cieszą się konstrukcje, których waga nie przekracza 2 kg. Według producentów w przyszłym roku preferencje klientów pozostaną takie same. Tym, co może się zmienić, są konfiguracje. Wiele wskazuje na to, że w 2018 r. komputery będą tańsze, bo z pewnością (o ile tego określenia można użyć w przypadku tego segmentu) potanieją pamięci.
– W 2017 roku ceny kości DRAM pozostają wysokie, drożały jeszcze w drugiej połowie roku, ale w przyszłym roku należy oczekiwać systematycznego ich spadku, który będzie konsekwencją nadprodukcji na globalnym rynku pamięci – twierdzi Paweł Śmigielski, dyrektor ds. rozwoju w Kingston Technology. – Trudno oczywiście precyzyjnie przewidzieć dokładny scenariusz, ale nie zdziwię się, jeśli za rok o tej porze będziemy płacić za pamięci 30–40 proc. mniej niż obecnie.
W takim przypadku na pewno potanieją karty graficzne, bo zawierają one całkiem sporo pamięci, ale może wrócą czasy, w których ceny będą spadać z tradycyjnego powodu, jakim jest równowaga między podażą a popytem. Ta, jak wiadomo, została mocno zachwiana za sprawą kryptowalut, a konkretnie wzmożonego popytu na karty graficzne ze strony tzw. górników. Sytuacja ulega zmianie po pierwsze dlatego, że ta działalność przestaje być bardzo opłacalna, a poza tym użytkownicy otrzymują do dyspozycji nowe, specjalizowane modele do kopania kryptowalut, dzięki czemu popyt na tradycyjne produkty spada.
– W naszej ofercie są dostępne dwie konstrukcje 104–100 i 106–100 przeznaczone do tych specyficznych zastosowań – mówi Jan Adryański, Community PR Manager Central Eastern Europe w Nvidii. – Są to odpowiedniki kart GeForce 1060 i 1080, w których nie zastosowano wyjść wideo.
W praktyce oznacza to, że przy optymistycznym scenariuszu sprzęt może potanieć nawet o ok. 10 proc. lub za te same pieniądze, jakie trzeba wydać dziś, będzie można kupić komputer z pamięcią RAM o podwojonym rozmiarze i dyskiem SSD o dwa razy większej pojemności.
Jakie procesory będą stosowane w tych komputerach? Odpowiedź nie jest tak oczywista, jak mogłaby być jeszcze kilka lat temu. AMD ma w ofercie układy, które mogą być konkurencją dla Intela nie tylko pod względem wydajności i ceny, ale również dodatkowych funkcji związanych z bezpieczeństwem, które są doceniane właśnie w sektorze B2B.
– Sprzęt może być dziś wyposażony w układy, które dzięki takim technologiom jak GuardMI w procesorach Ryzen PRO zapewniają wielopoziomową ochronę danych, dopuszczanie tylko zaufanych aplikacji oraz uruchamianie zabezpieczeń już na etapie rozruchu systemu – mówi Bruno Murzyn z polskiego przedstawicielstwa AMD. – Klienci z sektora B2B szukają takich rozwiązań coraz częściej, zwłaszcza w obliczu narastającego zagrożenia cyberatakami, o których głośno wypowiadają się nawet najważniejsze osoby w państwie.
Przedstawiciel AMD zwraca też uwagę, że znowu popularna staje się infrastruktura informatyczna firm w formule thin client, a więc z centralnie zarządzanym i chronionym centrum danych. Te urządzenia są znacznie mniejsze, bardziej energooszczędne i bardziej efektywne kosztowo od tradycyjnych komputerów stacjonarnych. Jednocześnie oferują zbliżoną moc dzięki wyspecjalizowanym układom, np. z rodziny AMD Embedded. Można się zatem spodziewać, że dalsze zmiany na rynku będą podporządkowane zarówno chęciom tworzenia coraz bezpieczniejszego środowiska pracy, jak i tendencjom polegającym na ograniczaniu zajmowanej przestrzeni, ciepła oraz hałasu przy zwiększaniu efektywności w działaniu systemów.
Wprawdzie AMD już nieraz deklarowało wprowadzenie na rynek procesorów, które stanowiłyby zagrożenie dla Intela, ale tym razem wygląda na to, że tak właśnie jest. Świadczyć może o tym choćby to, że ostatnio Intel wyraźnie przyśpiesza wprowadzanie na rynek nowych jednostek. Właściwa premiera układów najnowszej, ósmej już generacji Core (Coffee Lake) odbyła się na początku października, ale procesory, które zostały wówczas zaprezentowane, były dostępne już w sierpniu. Przy czym ich nazwa – Karby Lake Refresh – odnosiła się do poprzedniej, siódmej generacji. Jednostki ósmej generacji mają stanowić bardzo duży krok w przód przede wszystkim pod względem zwiększenia mocy obliczeniowej. Według deklaracji producenta wzrost wydajności w porównaniu z układami poprzedniej generacji wynosi nawet 40 proc.
– Jednostki te zapewniają bardzo duży wzrost wydajności dzięki podwojeniu liczby rdzeni – mówi Tadeusz Kurek, prezes NTT System. – Komputery z procesorami Intela ósmej generacji są dostępne w naszej ofercie jak zwykle od dnia premiery. W porównaniu z poprzednimi edycjami obserwujemy większe zainteresowanie nowymi konstrukcjami. Będziemy sukcesywnie zwiększać liczbę modeli w miarę dostępności płyt głównych obsługujących nowe procesory.
Trzeba też dodać, że w tych układach stosuje się znane jeszcze z czasów Pentium 4 rozwiązanie Hyper threading, które dodatkowo podwaja liczbę fizycznych rdzeni. Jak widać, walka o klienta w przypadku producentów procesorów przybiera na sile, co dla klientów oznacza w praktyce, że jednostki będą coraz wydajniejsze i coraz tańsze, a grafik planowanych premier systematycznie „gęstnieje”.
Uatrakcyjnianie oferty dla sektora małego i średniego biznesu dotyczy nie tylko sprzętu, który jest profilowany zgodnie z potrzebami klientów – zarówno pod kątem hardware’u, jak też dodatkowego oprogramowania. Producenci starają się ułatwiać użytkownikom pracę również przez zaoferowanie komputera szytego na miarę.
– Standardem dla nas jest produkowanie komputerów na konkretne zamówienie klienta. Komputer z wgranym oprogramowaniem jest po wyjęciu z pudełka przygotowany do zalogowania w domenie. Dbamy też przy tym o detale takie jak spersonalizowany ekran powitalny i logo firmy – mówi Sebastian Antkiewicz, Client Solutions Lead w Dellu.
Jego zdaniem tego typu ułatwianie życia klientom ma znaczenie zwłaszcza w przypadku instytucji, w których flota kilkudziesięciu czy kilkuset komputerów jest wymieniana co trzy lata. Z kolei Tomasz Włastowski, szef kanału partnerskiego Lenovo, przewiduje, że z czasem lista usług, jakie reseller czy integrator mogą świadczyć klientom, będzie się wydłużała.
– Nasi partnerzy mogą nie tylko przygotować sprzęt, zainstalować go czy serwisować. Firmy, które będą poszukiwały oszczędności przez obniżanie kosztów działania przedsiębiorstwa, mogą wyprowadzić na zewnątrz usługi związane z utrzymaniem całej infrastruktury informatycznej, sprzętowej i programowej. W praktyce oznacza to zastąpienie wewnętrznego działu IT wyspecjalizowanym resellerem – mówi Tomasz Włastowski.
Jak widać, nie brakuje sposobów na zarobek nawet przy braku wzrostu sprzedaży czy spadających marżach na sprzęt. Trzeba jedynie zaspokoić potrzeby klienta, nawet takie, z których sam klient może sobie jeszcze nie zdawać sprawy. Na pewno nie jest to proste, ale jeśli ktoś funkcjonuje w tym biznesie od kilkunastu lat, to niejeden „przewrót” rynkowy ma za sobą. Z obecnym też powinien i może sobie poradzić.
Artykuł MŚP, czyli powrót do przeszłości pochodzi z serwisu CRN.
]]>Artykuł 10 trendów na 2018 rok pochodzi z serwisu CRN.
]]>Gartner uważa, że wymienione niżej technologie będą rozwijać się przez co najmniej 5 lat. Twierdzi, że przedsiębiorstwa muszą rozważyć ich wdrożenie, aby nie dać się wyprzedzić konkurencji.
1. Fundamenty sztucznej inteligencji
AI stanie się fundamentem systemów IT. Będzie pomagać użytkownikom w podejmowaniu decyzji lub przejmie procesy decyzyjne. Wykorzystanie jej do wsparcia np. w transformacji modeli biznesowych, usprawnieniu organizacji, marketingu, obsługi klienta, łańcucha dostaw itd. ma zdominować według Gartnera inwestycje w cyfrowe innowacje do 2025 r.
2. Inteligentne aplikacje i analityka
Do 2020 r. elementy sztucznej inteligencji znajdą się w niemal każdej aplikacji biznesowej. Dzięki temu są one w stanie automatyzować procesy dotychczas wykonywane przez ludzi, wspierać m.in. pozyskiwanie nowych klientów, pracowników, szukanie oszczędności. Do 2020 r. 85 proc. interakcji pomiędzy konsumentami, a obsługą klienta ma zachodzić przy wykorzystaniu sztucznej inteligencji. Wzrośnie rola analityki. Według Forrestera do 2020 r. analitykę danych wykorzystywać będzie 90 proc. globalnych instytucji. AI i analityka będzie powiązana z chmurą.
3. Inteligentne urządzenia
W najbliższej przyszłości czeka nas wysyp elektronicznych przedmiotów, które dzięki sztucznej inteligencji będą wchodzić w interakcję z ludźmi i otoczeniem (np. autonomiczne samochody, roboty, drony, Internet rzeczy). Rola takich urządzeń wzrośnie. Powstanie sieć komunikujących się ze sobą maszyn, które będą nieustannie się uczyć.
4. Cyfrowe bliźniaki
Coraz więcej wdrożeń Internetu rzeczy w przedsiębiorstwach i inwestycje w połączone ekosystemy umożliwiają dziś tworzenie wirtualnych odpowiedników fizycznych maszyn, jak również procesów i środowisk.
Np. można dzięki temu monitorować, testować maszyny i urządzenia, analizując wpływ planowanych zmian na ich wirtualnych bliźniakach. Perspektywy związane z cyfrowym odpowiednikiem produktu są na tyle obiecujące, że można spodziewać się szybkiej popularyzacji tej technologii. Zdaniem BI Intelligence do 2021 r. wartość globalnych inwestycji w Internet rzeczy sięgnie blisko 5 mld dol.
– Wraz z rozwojem i popularyzacją idei „cyfrowych bliźniaków”, wzrośnie znaczenie zabezpieczenia informacji i zagwarantowania ciągłości działania. Przedsiębiorstwa „napędzane danymi” będą coraz bardziej uzależnione od stałego dostępu do nich. Nawet krótka przerwa może zakończyć się bardzo dużymi stratami – zwraca uwagę Robert Mikołajski z Atmana.
5. Edge Computing
To nowa metoda wymiany informacji w infrastrukturze IT. Zakłada przetwarzanie, zbieranie i dostarczanie danych jak najbliżej ich źródła, aby przyspieszyć analizę. W przypadku IoT i geograficznie bardzo rozproszonych aplikacji infrastruktura składa się z urządzenia, serwera i krawędzi sieci (Edge). Przesyłanie informacji z powrotem do centralnego serwera wiąże się z opóźnieniami, a nie brakuje środowisk IoT, w których natychmiastowa reakcja jest kluczowa.
6. Platformy do komunikacji
Responsywne interfejsy umożliwiające interakcje użytkownika i oprogramowania staną się głównym celem projektowym aplikacji. Już obecnie widać rosnące zainteresowanie firm platformami do zarządzania komunikacją, wykorzystującymi elementy sztucznej inteligencji (jak uczenie maszynowe, rozpoznawanie mowy, obrazów, tekstu). Będzie rosło np. zapotrzebowanie na UCaaS (zintegrowana komunikacja jako usługa), bo tego typu platformy gromadzą informacje, warto więc je zintegrować z narzędziami do analityki. Według Gartnera komunikacja przyszłości będzie należała do inteligentnych platform, korzystających np. z analizy głosu i uczenia maszynowego, co pozwoli np. automatycznie udzielać odpowiedzi na pytania.
7. Immersive Experience
Prognozy dla VR i AR są obiecujące. Przedsiębiorstwa muszą jednak zbadać scenariusze, w których można zastosować VR i AR z korzyściami biznesowymi (zwiększyć produktywność pracowników, usprawnić procesy projektowania, szkolenia itd.).
– Zastosowanie wirtualnej czy rozszerzonej rzeczywistości w produkcji jest bardzo obiecujące. Pozwala pracownikowi np. uzyskać pełen obraz sytuacji na linii produkcyjnej – widzi on niezbędne informacje bez wchodzenia do systemu IT. To ułatwia i przyśpiesza pracę, a także umożliwia identyfikację „wąskich gardeł” – twierdzi Piotr Rojek z DSR.
8. Blockchain
Blokchain kojarzy się przede wszystkim z kryptowalutami, jednak może zmienić inne rynki. Aplikacje oparte o zdecentralizowane bloki informacji znalazły już zastosowanie w branży finansowej, ochronie danych, IT, opiece zdrowotnej, transporcie czy energetyce. Państwowe systemy IT oparte o tę technologię wprowadziła m.in. Estonia, zabezpieczając się przed atakami hakerów.
– Blockchain stworzy nowe rynki. Przykładem są rynki predykcyjne, jak Augur czy Gnosis – komentuje Szczepan Bentyn z Pracowni Nowych Technologii.
9. Architektura zorientowana na zdarzenia
Chodzi o sytuacje, które można cyfrowo odnotować, od zamówienia w e-sklepie po wylądowanie samolotu. Wykorzystując event brokerów, IoT, cloud computing, blockchain, in memory data managment i sztuczną inteligencję, zdarzenia biznesowe mogą być wykrywane szybciej i dokładniej analizowane. By tak się stało, konieczne są odpowiednie narzędzia informatyczne i zmiany w zarządzaniu organizacją.
10. CARTA
CARTA (Continuous Adaptive Risk and Trust Assessment) według Gartnera lepiej zabezpieczy firmę przed zaawansowanymi cyberatakami i szpiegostwem. Jest to sposób działania, który zakłada nieustanną pracę nad strategią bezpieczeństwa i dopasowywanie jej do poszczególnych wydarzeń. Np. dostęp do poufnych danych przydzielany jest użytkownikowi za każdym razem, gdy próbuje on się do nich dostać, na podstawie historii wcześniejszego zachowania. Jest to możliwe dzięki zaawansowanej analityce danych.
Artykuł 10 trendów na 2018 rok pochodzi z serwisu CRN.
]]>Artykuł Wyjść poza własne podwórko… pochodzi z serwisu CRN.
]]>
Przemysł 4.0… w bólach, ale się rodzi
Koncepcja Przemysłu 4.0 ma doprowadzić do tego, żeby
kojarzące się z masową produkcją fabryki mogły ją w jak największym
stopniu indywidualizować, zgodnie ze specyficznymi zamówieniami ze strony
klientów. Podstawą rozwoju koncepcji Industry 4.0 jest wirtualny model
przyszłego produktu stworzony w wirtualnej fabryce. Jak tłumaczy Piotr
Rojek, dyrektor zarządzający DSR, nowoczesne aplikacje do cyfrowej produkcji
umożliwiają m.in. odwzorowanie całej fabryki w modelu 3D, wraz z procesami
wytwórczymi.
– Rozwiązania tego
typu mogą być zastosowane między innymi do optymalizacji produkcji przed jej
uruchomieniem oraz pozyskania informacji o aktualnie przebiegających
procesach i wykorzystania ich na etapie projektowania produktu
– mówi Piotr Rojek.
Specjalista takie podejście do produkcji określa mianem
cyfrowego wytwarzania (Digital Manufacturing) i obwołuje je ważnym trendem
IT w przemyśle na rok 2016 i kolejne. To koncepcja, która szczególnie
zyskuje na znaczeniu w firmach nastawiających się na krótkie serie
i mocną kastomizację wyrobów.
Z Digital
Manufacturing, jako elementem Przemysłu 4.0, wiąże się Smart Manufacturing
(inteligentna produkcja). W tej koncepcji idzie się o krok dalej
– chodzi o zbieranie z każdego punktu łańcucha dostaw informacji
dotyczących preferencji konsumentów, a także mechanizmów wytwarzania
i dostarczania towarów.
Wraz z rozwojem obu przytoczonych idei fabryki zmienią
się w swoiste centra innowacji, które będą oferowały wyroby ściśle
dopasowane do wymagań klienta. Według Deloitte do najważniejszych wyzwań, które
stoją obecnie przed przedsiębiorstwami przemysłowymi, należy właśnie m.in.
oferowanie nowych usług, innowacyjność i przystosowanie produkcji do
specyficznych potrzeb odbiorców.
– Wszystkie te wyzwania wymagają elastycznego
i nowoczesnego podejścia do IT w przedsiębiorstwie i zwrócenia
się w stronę Przemysłu 4.0
– twierdzi Dariusz Śliwowski, prezes proALPHA, ekspert w dziedzinie
IT.
Specjaliści uważają, że
koncepcja Przemysłu 4.0 powinna stać się w Polsce przedmiotem analiz,
zarówno naukowców, jak i przedsiębiorców. Mówi się także o potrzebie
pogłębionej współpracy innowacyjnych firm, wsparciu ze strony państwa oraz
współdziałaniu nauki z biznesem, która do tej pory nie rozwijała się
w Polsce zbyt intensywnie.
Druk 3D w przemyśle
W 2015 r. wiele
dyskutowało się w tej branży o przecenie akcji dwóch sztandarowych
amerykańskich producentów: 3Dsystems i Stratasysa. Pod koniec ubiegłego
roku pierwszy z nich, mając na względzie spadek cen swoich walorów na giełdzie,
podjął decyzję o rezygnacji z produkcji budżetowych rozwiązań
i powrocie do korzeni, czyli skupieniu się na drukarkach przemysłowych. Na
rozwiązaniach profesjonalnych, a więc bez nastawienia na konkurowanie
ceną, koncentrują się też (przynajmniej w deklaracjach) tradycyjne firmy
z branży IT, jak Epson, HP, Ricoh, Toshiba i Xerox. Resellerzy oraz
integratorzy powinni rozważyć debiut w nowej drukarkowej niszy
przemysłowej jako partner jednego z dobrze znanych im producentów.
Zwłaszcza że ci od lat działający w branży IT cenią sobie potencjał kanału
partnerskiego, czego nie można powiedzieć o wielu start-upach działających
na rynku druku przestrzennego.
Segment maszyn przemysłowych, jak zauważają m.in. analitycy
Contextu, ulega dość szybkim przemianom. Dotąd drukarek 3D używano
z reguły do tworzenia prototypów. Z czasem pojawiła się technologia
umożliwiająca produkcję części (służą do tego tzw. urządzenia Metal 3D). Ich
dostawcami są głównie europejskie firmy, jak Arcam, Concept Laser, EOS,
Realizer, Renishaw i SLM Solutions, (w sumie pokrywają 78 proc.
światowej sprzedaży).
Druk 3D w edukacji
Ciekawe wydają się
perspektywy dla firm IT, które działają na rynku edukacyjnym (chodzi
o szkoły podstawowe i średnie). Drukarka 3D pojawiła się na liście
sprzętu IT zalecanego przez MEN w ramach zwiększenia udziału nowych
technologii w edukacji. Biorąc pod uwagę, że sam temat druku
przestrzennego jest bardzo popularny nie tylko wśród specjalistów, ale
i konsumentów, szkoły mogą być nim rzeczywiście zainteresowane. Tym bardziej
że w nowej perspektywie finansowej, w której po raz ostatni oferowane
są naprawdę duże środki, placówki edukacyjne najprawdopodobniej będą chciały
wykorzystać je do rozwoju zaplecza technologicznego. Na wzrost zainteresowania
klientów z rynku edukacyjnego drukiem 3D mogą w jakimś stopniu mieć
wpływ osoby decydujące o budżetach samorządowych. Przykładem przetarg
rozstrzygnięty we wrześniu 2015 roku w województwie mazowieckim na 180
drukarek 3D, które mają stanąć w obiektach użyteczności publicznej (wygrał
go Zortrax). Producent oprócz urządzeń dostarczy także skaner 3D, zapewni
materiały eksploatacyjne, a także zorganizuje stodowne szkolenia.
Pieniądze z gwiazd. Rozwija się polski przemysł kosmiczny
W ostatnich miesiącach
zintensyfikowała działania Polska Agencja Kosmiczna założona pod koniec
2014 r. Jej zadaniem jest wspieranie polskich przedsiębiorstw na
europejskim rynku technologii wykorzystywanych w przestrzeni
pozaziemskiej. Na razie Polska wydaje na programy badania kosmosu stosunkowo
niewiele, bo 30 mln euro rocznie. Jak mówi prof. Marek Banaszkiewicz,
wybrany pod koniec 2015 r. prezesem PAK, pierwszorzędnym celem organizacji
jest efektywne odzyskiwanie pieniędzy z owej składki w postaci
kontraktów dla polskich przedsiębiorstw, które biorą lub mają zamiar brać
udział w przetargach organizowanych przez Europejską Agencję Kosmiczną
(ESA). W ten sposób powinno wrócić do nas przynajmniej 45 proc.
wpłacanych pieniędzy.
Polska organizacja pomaga rodzimym przedsiębiorstwom
startującym w konkursach europejskiej agencji, świadcząc im usługi
doradcze, co ma ułatwić przejście przez procedury przetargowe. Ocenia też
technologie, których produkcję chciałby rozpocząć polski biznes,
w kontekście planów ESA. Pod koniec 2015 r. beneficjentem takiej
pomocy został Ultratech (działający w branży lotniczej), Blue Dot
Solutions (koncentrujący się na sektorze kosmicznym) oraz Newind (spółka
z branży IT).
Rozwój przemysłu
kosmicznego stwarza szansę dla małych i średnich firm. Na tym polu mogą
wygrać za sprawą innowacyjności, która w branży kosmicznej jest wyjątkowo
ważna. Co istotne, produkt, technologia czy oprogramowanie stworzone
z myślą o tak specjalistycznym przemyśle nie ma zamkniętej drogi do
późniejszego wykorzystania w innych, bardziej przyziemnych dziedzinach.
Rozwój i sukces firmy w tworzeniu produktów dla branży kosmicznej to
przepustka do współpracy np. z wojskiem, lotnictwem czy medycyną.
W segmencie
technologii kosmicznych duże szanse mają przedsiębiorstwa telekomunikacyjne.
Pole do popisu istnieje w dziedzinie rozwiązań do zapisu
i przetwarzania danych z systemów monitorujących loty przy
wykorzystaniu nawigacji i komunikacji satelitarnej. Kolejnym obiecującym
obszarem jest miniaturyzacja i szeroko pojęte bezpieczeństwo.
Polską
firmą, o której można już śmiało powiedzieć, że odniosła kosmiczny sukces,
jest Creotech Instruments z Piaseczna. Zajmuje się przede wszystkim
projektowaniem i produkcją hardware’u
do zastosowań w przestrzeni pozaziemskiej. Firma obecnie zwraca uwagę na
rosnące znaczenie układów FPGA w przemyśle kosmicznym, dążąc do tego, aby
być jedną z nielicznych w Europie, które mogą takie układy szybko
zmontować.
Blogerzy, vlogerzy. Nowe źródła opinii
o produktach konsumenckich
Wygląda na to, że niezależni autorzy tekstów
i materiałów wideo w Internecie, specjalizujący się na przykład
w nowych technologiach, mają i będą mieli niebagatelny wpływ na
świadomość, opinie i ewentualnie decyzje zakupowe konsumentów. Ci ostatni
po prostu chcą kupować świadomie i bronić się przed ewentualną manipulacją
ze strony producentów i resellerów.
W 2015 r. opublikowano wyniki badania przeprowadzonego
przez Mobile Institute na zlecenie Polskiego Stowarzyszenia Blogerów
i Vlogerów (PSBV). Przeprowadzono je na sporej próbie przeciętnych
internautów (977 odpowiedzi) oraz tych zaawansowanych, a więc stałych
odbiorców blogów i vlogów (1525 odpowiedzi).
– Internetowi liderzy opinii stali się jednym
z głównych źródeł wiedzy na temat produktów i marek, jakie odbiorcy
zamierzają kupić
– podsumowuje Bartosz Idzikowski, członek zarządu PSBV. – Bezpośrednia ocena, bliska relacja
z odbiorcami i możliwość interaktywnej dyskusji sprawiają, że
odbiorcy nie czują się naciągani.
Okazuje się, że przeciętny internauta jest stałym
czytelnikiem średnio 2–4 blogów lub vlogów, natomiast stały ich odbiorca
zapoznaje się z treścią od pięciu do dziesięciu z nich. Jeśli chodzi
o czytanie b(v)logów – to ich stali odbiorcy robią to przede
wszystkim z ciekawości (80 proc. odpowiedzi), ale i po to, aby
się czegoś nauczyć, zdobyć wiedzę w specjalistycznym obszarze, kupować
bardziej świadomie (odpowiednio 70, 67 i 57 proc. odpowiedzi).
Pozostali internauci czytają wpisy blogerów i oglądają vlogi, ponieważ są
one ciekawe, chcą się czegoś nauczyć, poznać opinie konkretnych osób (odpowiednio
52, 37 i 34 proc. wskazań). Co prawda, do ulubionych kategorii
b(v)logów należą podróżnicze, kulinarne i związane z pielęgnacją
ciała. Badanie stowarzyszenia dowodzi jednak, że już na kolejnych miejscach
znajdują się te dotyczące nauki, gier oraz IT.
Drony. Lot w kanale IT
Według przewidywań
MarkerandMarket globalny rynek dronów przeznaczonych do komercyjnych zastosowań
osiągnie do 2020 r. wartość 5,59 mld dol. Wyniki sprzedaży tych
maszyn w Stanach Zjednoczonych wskazują na to, że w grudniu ub.r. pod
choinką mogło się ich znaleźć ok. 400 tys.
Na początku bieżącego roku świat obiegła informacja, że
w rozwój technologii obiektów latających inwestuje Intel. Koncern kupił
niemiecką firmę Ascending Technologies, producenta dronów do zastosowań
profesjonalnych. Maszyny te już stosuje w swoim biznesie Amazon,
a Google zapowiada, że niebawem ujawni plany w tym zakresie. Na
młody, dynamiczny rynek dronów szybko wchodzą producenci chipsetów. Na przykład
Qualcomm pod koniec ub.r. przedstawił swoją platformę Snapdragon Flight dla aplikacji
sterujących, tworzonych z myślą zarówno o dronach, jak
i robotycznych zabawkach. Trochę wcześniej światło dzienne ujrzała
platforma Nvdii – Jetson TX1.
Wartość polskiego rynku dronów szacowana jest na
ok. 165 mln zł – wynika z raportu Instytutu Mikromakro.
W przypadku zastosowań cywilnych dość szybko może ona wzrosnąć
o kolejne 150 proc. Przetargi od zeszłego roku rozpisuje także
polskie wojsko, dzięki czemu segment dronów do zastosowań profesjonalnych może
rozrosnąć się nawet o kilkaset procent.
Na razie jednak największą popularnością w kraju cieszą
się drony przeznaczone do zabawy. Drugie w kolejności są maszyny
półprofesjonalne, a następnie specjalistyczne drony fotograficzne. Wartość
rynku dronów zabawkowych szacuje się na ok. 102 mln zł. Tendencja
wzrostowa – w opinii ekspertów – będzie się utrzymywała na
wysokim poziomie jeszcze przez długi czas.
Na fali optymizmu
rozwiązania te pojawiły się w dystrybucji IT i trafiły do oferty
sklepów resellerskich. Sklepy IT mogą wprowadzić do asortymentu zarówno same
„obiekty latające”, jak też akcesoria do nich (ładowarki, akumulatory,
specjalne plecaki, zapasowe śmigła i wiele innych). Niektórzy specjaliści
związani z rynkiem druku 3D przewidują, że za jakiś czas klienci będą na
własne potrzeby drukować części zamienne do swoich dronów.
Warto wspomnieć, że w Polsce wcześniej czy później
wejdą w życie regulacje prawne dotyczące małych bezzałogowych maszyn.
Podobnie jak nastąpiło to w Stanach Zjednoczonych, gdzie w końcu
2015 r. wprowadzono obowiązek rejestracji wszystkich dronów o wadze
powyżej 250 g.
Artykuł Wyjść poza własne podwórko… pochodzi z serwisu CRN.
]]>Artykuł 2 mln miejsc pracy w nowych technologiach pochodzi z serwisu CRN.
]]>Jednak postępujące zmiany, związane z trwającą właśnie nową rewolucją przemysłową określaną jako 'Industry 4.0′, nie są dobrą wiadomością dla wielu pracowników – wynika z badania. Mianowicie częstsze korzystanie z robotów i cyfryzacja firm doprowadzą do likwidacji 7 mln miejsc pracy w krajach rozwiniętych do 2020 r. Dużo mniej osób będzie potrzebnych głównie do zadań biurowych i administracyjnych. Czyli konsekwencją cyfryzacji administracji i upowszechnienia e-usług powinna być redukcja kadry urzędniczej. W przemyśle, w którym automatyzacja w dużym stopniu już się dokonała, zwolnienia będą miały mniejszą skalę.
Dyrektorzy największych koncernów są zdania, że z powodu postępującej cyfryzacji przedsiębiorstw w krajach europejskich będzie rosło bezrobocie. Wyjątkiem jest Wielka Brytania, a także Turcja. Receptą na likwidację kolejnych miejsc pracy są według autorów studium inwestycje w edukację i nowe technologie.
Artykuł 2 mln miejsc pracy w nowych technologiach pochodzi z serwisu CRN.
]]>Artykuł Cisco: najważniejsze trendy na 2016 rok pochodzi z serwisu CRN.
]]>Digitalizacja
W ciągu najbliższych 5 lat cyfrowa rewolucja wyprze z rynku ok. 40 proc. firm mających obecnie silną pozycję w swoich branżach – takie są wnioski z badania 941 menedżerów wyższego szczebla z 12 branż i 13 państw. Prognozowana zmiana dotyczy to każdego z 12 sektorów. Raport wskazuje, że jedynie 25 proc. firm ocenia swoje podejście do tej kwestii jako proaktywne, zaś 45 proc. nie uważa rewolucji za zjawisko zasługujące na uwagę kierownictwa ich firm.
Najbardziej podatne na zmianę są branże, w których kluczową rolę odgrywają dane – zwłaszcza „nowe technologie” (w tym produkty i usługi), a ponadto: media i rozrywka, telekomunikacja, usługi finansowe i handel detaliczny. Według raportu właśnie one w największym stopniu polegają na Internecie Wszechrzeczy – sieciach łączących ludzi, przedmioty, dane i procesy.
Cyberbezpieczeństwo bardziej biznesowe
Internet Wszechrzeczy i cyfrowa rewolucja wiąże się z rosnącym zagrożeniem, wynikającym z połączenia ze sobą coraz większej liczby osób, urządzeń i danych. Każdy element tej sieci może być celem ataku.
Według Cisco tylko dzięki systemowemu podejściu do ochrony możliwe jest szybkie wykrywanie zagrożeń oraz minimalizowanie ich skutków. Bezpieczeństwem cyfrowym powinny zająć się nie tylko działy IT, lecz także wyższy menedżment i zarządy firm. Ponadto czas zmienić podejście do tego problemu. Dotąd ochrona koncentrowała się na prewencji, ale istotne jest to, co dzieje się także w trakcie i po ataku. Np. obecnie czas od momentu ataku na firmowe zasoby IT do jego wykrycia wynosi średnio 100 do 200 dni. Jego skrócenie jest jednym z priorytetów, co ograniczy straty. Koszty działań cyberprzestępców na świecie oszacowano na 500 mld dol. rocznie.
„Są dwa rodzaje firm: te, które zostały zhakowane, i te, które jeszcze nie wiedzą, że zostały zhakowane” – stwierdził John Chambers, były CEO Cisco.
„Mgła obliczeniowa”
„Fog computing” to rozproszona infrastruktura Internetu Rzeczy oraz związane z nią aplikacje do analizy danych, działające na brzegu sieci. Pozwala korzystającym z niej organizacjom na analizę danych i zarządzanie nimi lokalnie, bez konieczności komunikacji z data center, dzięki czemu możliwe jest szybsze, wręcz natychmiastowe generowanie wniosków biznesowych. Według Cisco 40 proc. danych pochodzących z IoT do 2018 r. będzie przetwarzanych we „mgle obliczeniowej”.
Handel korzysta na cyfrowej rewolucji
O tym jak powyższe trendy przenikają się i wpływają na zmianę biznesu pokazuje według Cisco przykład handlu detalicznego. Cyfrowa rewolucja nie oznacza, że klienci rezygnują ze stacjonarnych sklepów na rzecz zakupów online. Następuje natomiast integracja świata cyfrowego i fizycznego. Z nowych rozwiązań korzystają:
– klienci – zakupowe aplikacje mobilne coraz częściej zawierają funkcje przydatne w zwykłych sklepach, jak skanery kodów kreskowych, komunikaty i mapy sklepów powiązane z beaconami czy tzw. rzeczywistość rozszerzoną (augmented reality). Rozwiązania Digital Signage mogą wyświetlać informacje skierowane do konkretnego klienta. Np. SMS-owe kupony zniżkowe mogą zostać uzupełnione o dodatkowe dane, np. pokazują jakie akcesoria pasują do odzieży prezentowanej na manekinie.
– sklepy – aplikacje są źródłem wiedzy o historii zakupowej klientów i zmianach trendów rynkowych. Cyfrowe tagowanie produktów przez czujniki RFID oraz zintegrowane systemy POS pozwala od razu sprawdzić, czy dany produkt jest dostępny w magazynie albo innym sklepie sieci.
Przykładem połączenia sklepu fizycznego z korzyściami płynącymi z cyfryzacji jest interaktywny salon jednej z marek modowych. Klienci mają do dyspozycji duży, lustrzany ekran dotykowy. Z jego pomocą wybierają produkty, które następnie są wysyłane do przymierzalni, również wyposażonych w lustrzane ekrany dotykowe. Dzięki temu klient może nadal przeglądać katalog online i zażyczyć sobie, aby doniesiono mu kolejne ubrania do przymierzenia.
Artykuł Cisco: najważniejsze trendy na 2016 rok pochodzi z serwisu CRN.
]]>Artykuł Opinie: trendy IT na 2016 rok pochodzi z serwisu CRN.
]]>Oto najważniejsze prognozowane trendy:
• Cyfrowa infrastruktura: zrozumienie danych i sposobu ich wykorzystania
Przez wiele lat specjaliści od centrów danych poświęcali większość swojego czasu i energii takim rzeczom, jak pamięć masowa i kopie zapasowe, oraz temu, jak najwydajniej wykonywać takie zadania, jak replikacja czy deduplikacja. Na pierwszym miejscu było ograniczanie kosztów. Teraz w ocenie firmy nastąpiła zasadnicza zmiana. Priorytetem stało się doskonalenie sposobów eksplorowania danych i opracowanie metod, które pozwolą wykorzystać informacje z korzyścią dla prowadzonego biznesu.
• Chmura hybrydowa: wzrost wykorzystania chmury prywatnej
Firma przewiduje, że nowa oferta chmur prywatnych opartych na komercyjnych modelach użycia zasobów będzie przyciągać uwagę tych decydentów IT, którzy strategię cloud stawiają na pierwszym miejscu. Nowe modele chmury prywatnej ułatwiają migrację krytycznych dla przedsiębiorstw aplikacji, które nie powstawały z myślą o chmurze.
• Miejsca pracy nowego typu – mobilne, wykorzystujące wiele połączonych urządzeń końcowych: większy wpływ mediów społecznościowych
Największe serwisy społecznościowe pozwalają na korzystanie z rozwiązań dla biznesu (jak współdzielenie plików) i tworzenie społeczności zawodowych, w których można dzielić się pomysłami, nawiązywać relacje, zdobywać informacje oraz dzięki temu szybciej podejmować decyzje. Tego typu metody będą w coraz większym stopniu wykorzystywane przez korporacje do komunikacji między różnymi regionami.
• Cyberbezpieczeństwo: ataki na kierownictwo firm
Według prognozy będzie to kolejny rok wzrostu cyberzagrożeń. Nowym zjawiskiem są ataki na kierownictwo firm wyższego szczebla. W najbliższych 12 miesiącach coraz większą rolę ma pełnić informatyka śledcza.
Artykuł Opinie: trendy IT na 2016 rok pochodzi z serwisu CRN.
]]>Artykuł Trendy w branży odzyskiwania danych pochodzi z serwisu CRN.
]]>
Pamięci masowe zdefiniowane programowo (Software Defined Storage)
W założeniu bezawaryjne, coraz popularniejsze wśród użytkowników biznesowych systemy SDS, okazały się jednak zawodne W 2015 r. Kroll Ontrack odnotował dwukrotny wzrost liczby awarii SDS-ów, skutkujących utratą danych. Takie przypadki wymagały opracowania odpowiednich rozwiązań, ponieważ większość producentów wykorzystuje własne metody przechowywania danych w obrębie SDS.
– Odzyskiwanie tego typu danych jest możliwe, choć bardzo złożone. Warunkiem sukcesu jest przede wszystkim zidentyfikowanie awarii oraz analiza i rozszyfrowanie wzorów przechowywania danych. Potem powinna nastąpić odbudowa systemu plików i opracowanie narzędzi do przywrócenia kluczowych informacji – mówi Adam Kostecki, specjalista do spraw rozwoju i bezpieczeństwa Kroll Ontrack.
Systemy hiperkonwergentne
Hiperkonwergencja to jedna z najważniejszych innowacji, związanych z przechowywaniem danych. Tego typu architektura IT łączy w sobie sprzęt, sieć i zasoby pamięci masowej za pośrednictwem oprogramowania, umożliwiającego uruchomienie na każdym urządzeniu, niezależnie od jego producenta.
Rozwiązania tego typu pojawiły się na rynku pod koniec 2014 r., a w 2015 roku ich popularność rosła. Specjaliści przewidują, że w 2016 r. – pociągnie to za sobą konieczność opracowania metod odzyskiwania danych z systemów hiperkonwergentnych.
Kroll Ontrack zaznacza, że takie procesy może skomplikować wstępna konfiguracja systemu, zwłaszcza nośników HDD, SSD oraz pamięci flash lub w ogóle brak informacji o konfiguracji systemu.
Stacjonarne i zdalne odzyskiwanie
Na branżę odzyskiwania danych silnie wpływają globalne regulacje, dotyczące prywatności i bezpieczeństwa danych. Zmieniające się otoczenie prawne i tendencja do regulowania dostępu do określonych informacji, przekładają się na rosnące zapotrzebowanie na zdalne lub odbywające się wewnątrz organizacji procesy odzyskiwania. Przywracanie informacji bez ich przenoszenia poza firmę to także konieczność w przypadku złożonych i rozbudowanych systemów.
Zarządzanie archiwami danych
Wiele przedsiębiorstw stoi w obliczu obowiązku przechowywania i utrzymania dostępu do archiwalnych danych. Bywa to kosztowne i kłopotliwe. Niewłaściwe prowadzenie archiwów cyfrowych może z kolei skutkować problemami prawnymi. W 2015 r. globalne badanie Kroll Ontracka przeprowadzone wśród ponad 700 administratorów IT ujawniło, że prawie jedna trzecia organizacji nie ma wglądu w informacje przechowywane za pośrednictwem archiwów taśmowych.
Według Kroll Ontracka wśród dobrych praktyk, związanych z zarządzaniem archiwami taśmowymi, najważniejsze jest określenie ich jakości i uzyskanie wiedzy na temat zgromadzonych informacji. Specjaliści firmy zwracają uwagę na zapotrzebowanie nie tylko na rozwiązania katalogujące informacje i ich umiejscowienie, lecz także na konsolidujące katalogi – wiele systemów w jeden, umożliwiający przeszukiwanie zasobów.
Kasowanie i weryfikacja
W 2015 r. po raz kolejny okazało się, że prywatność i bezpieczeństwo danych to priorytety każdej organizacji. Rosnąca liczba informacji na temat cyberprzestępczości i naruszeń skłaniała przedsiębiorców do wzmacniania procedur bezpieczeństwa.
– Rośnie liczba zapytań ze strony działów IT i producentów napędów, dotyczących weryfikacji skuteczności fabrycznych funkcji usuwania danych. W rezultacie odnotowaliśmy gwałtowny wzrost zapotrzebowania na usługi weryfikacji kasowania danych. Nasi inżynierowie coraz częściej przeprowadzają szczegółową analizę napędów i przygotowują sprawozdania weryfikujące, czy zastosowane metody usuwania informacji są bezpieczne – wyjaśnia Adam Kostecki.
Artykuł Trendy w branży odzyskiwania danych pochodzi z serwisu CRN.
]]>