Artykuł Wielka migracja danych pochodzi z serwisu CRN.
]]>Te dwa ostatnie problemy nasiliły się w czasie pandemii, kiedy trzeba było w ekspresowym tempie zapewnić dostęp do informacji osobom pracującym w domach. Jednym z najprostszych, choć niekoniecznie najtańszych sposobów było wykupienie usług Amazona czy Microsoftu. To jednak zrozumiała decyzja, jeśli wziąć pod uwagę, że w gorącym okresie nie było czasu na wnikliwe analizy. I choć pośpiech nie jest najlepszym doradcą, to nigdy nie jest za późno, aby sporządzić bardziej wnikliwe kalkulacje i lepiej dostosować się do zmieniających warunków. Jest to możliwe nie tylko dzięki elastyczności usług chmurowych, ale także narzędziom ułatwiającym procesy związane z przetwarzaniem i przechowywaniem danych. Co ważne, dostawcami tego typu rozwiązań są na ogół bardzo młode firmy, które mają świeże spojrzenie na kwestie związane z zarządzaniem plikami i obiektami.
Nasuni jest jednym z wielu startupów szukających sobie miejsca w segmencie chmury hybrydowej. To rynek, przed którym rysują się bardzo ciekawe perspektywy. Analitycy z MarketsandMarkets prognozują, że w 2023 r. jego wartość sięgnie 97 mld dol. (w 2018 było to 44 mld dol.). Nasuni postawiło sobie za cel zastąpienie konwencjonalnych serwerów i systemów NAS usługami przechowywania plików w chmurze. Szefowie startupu przekonują, że przechowywanie danych nieustrukturyzowanych w chmurze publicznej wymaga specjalnych rozwiązań. Najwięcej trudności sprawia obsługa plików przechowywanych w chmurze mocno oddalonej od użytkowników. Nasuni chce zoptymalizować produktywność pracowników, jednocześnie zmniejszając koszty i oszczędzając zasoby IT.
W tym celu firma opracowała globalny system plików UniFS, który integruje się z obiektową pamięcią masową i może być skalowany bez ograniczeń w ramach Amazon, Azure lub Google Cloud. System realizuje takie funkcje jak tworzenie kopii zapasowych, synchronizacja plików czy odzyskiwanie danych po awarii. Według specjalistów Nasuni ostatni z wymienionych procesów może trwać jedynie 15 minut.
Nasuni obsługuje najważniejsze protokoły, w tym SMB (CIFS), NFS, FTP/ /SFTP i HTTPS. Użytkownicy uzyskują dostęp do plików za pośrednictwem Nasuni EdgeAppliance, czyli maszyn wirtualnych lub urządzeń x86 z zainstalowanym oprogramowaniem tej marki. Obszar, w którym porusza się amerykański startup, ma spory potencjał.
Analitycy IDC szacują, że w latach 2021–2025 średnia stopa wzrostu ze sprzedaży usług związanych z przechowywaniem plików w chmurze wyniesie 41 proc. i w 2025 r. osiągnie wartość 4 mld dol., czyli niemal pięć razy więcej niż w ubiegłym roku. Warto podkreślić, że w przypadku pamięci obiektowej prognozy mówią o 21 proc. wzroście, aczkolwiek wielkość uzyskiwanych obrotów zdecydowanie przekroczy te uzyskiwane w segmencie przechowywania plików.
– Chcemy za kilka lat zgarniać z rynku około 5 miliardów dolarów rocznie. Jak na razie możemy pochwalić się 120-procentową stopą wzrostu przychodów. Co istotne, około 30 procent naszych wpływów pochodzi ze współpracy z wielką trójką: Amazonem, Microsoftem i Google’em – mówi Paul Flanagan, CEO Nasuni.
Co ciekawe, Nasuni jednocześnie konkuruje z wymienionymi koncernami. Swojej szansy upatruje w tym, że Amazon czy Microsoft koncentrują się na usługach przechowywania danych bazujących na pamięci obiektowej, a ich oferta w zakresie plików nie pokrywa potrzeb szerokiej grupy odbiorców. Z kolei bardzo ważnym graczem w tym sektorze jest NetApp, z którym Nasuni musi ostro rywalizować o klientów. Zresztą Paul Flanagan przyznaje, że około 40 proc. przychodów jego firmy generują klienci przejęci od konkurencji.
Niewykluczone, że plany Nasuni częściowo pokrzyżuje David Flynn. Ten przedsiębiorca z Kalifornii jako pierwszy wprowadził na rynek nośniki SSD z interfejsem PCI. W 2014 r. jego firma Fusion-io została przejęta za 1 mld dol. przez SanDisk. Niedługo potem Flynn wystartował z nowym projektem Primary Data, a więc platformą do zarządzania danymi (funkcję Chief Scientist pełnił wtedy w tej firmie Steve Wozniak).
Chociaż Primary Data była firmowana przez znane postacie i pozyskała 60 mln dol. od funduszy venture capital, przetrwała jedynie cztery lata. Jednak sam David Flynn nie złożył broni i w 2010 r. założył startup Hammerspace, będący w pewnym stopniu kontynuacją wcześniejszego przedsięwzięcia. Firma opracowała Global Data Environment (GDE), który unifikuje rozproszone silosy plików i obiektów w pojedynczy zasób sieciowej pamięci masowej (NAS). W ten sposób zapewnia się aplikacjom dostęp na żądanie do nieustrukturyzowanych danych w lokalnych chmurach prywatnych, hybrydowych lub publicznych. Idea polega na tym, żeby punkty dostępu do danych były aktualizowane za pomocą metadanych GDE. W rezultacie cyfrowe zasoby są cały czas widoczne i można do nich uzyskać dostęp z dowolnego miejsca.
– Przedsiębiorcy potrzebują rewolucyjnego podejścia do dostępu do danych. Nasze rozwiązanie przełamuje ograniczenia techniczne występujące podczas przechowywania plików. W ten sposób zwalniamy firmowe zespoły IT z niekończącej się pracy, mającej na celu łączenie różnych systemów pamięci masowej – tłumaczy David Flynn.
Z punktu widzenia użytkownika operacja jest prosta, bo wystarczy połączyć się z systemem, aby uzyskać dostęp do wszystkich danych. Przy czym niezależnie od tego, czy znajdują się w lokalnej pamięci masowej w wielu witrynach, na platformie AWS, Azure czy GCP, pliki pojawiają się w folderach tak, jakby znajdowały się na lokalnym serwerze NAS. Dostęp dla użytkowników i aplikacji odbywa się przez NFS lub SMB, a także przez sterowniki CSI, jeśli dane są odczytywane lub zapisywane przez aplikacje uruchomione na platformie Kubernetes.
Jednym z klientów Hammerspace jest kanadyjskie studio animacji Global GFX. Firma zatrudnia animatorów rozsianych po całym świecie. GDE umożliwia im zachowanie ciągłości produkcji, gdy na przykład europejscy pracownicy wylogowują się wieczorem, a koledzy z półkuli zachodniej w tym samym czasie kontynuują pracę.
– To tak, jakby wszyscy byli w tym samym pokoju, mimo że są oddzieleni kilkoma strefami czasowymi – tłumaczy Floyd Christofferson, szef produktu w Hammerspace.
Hammerspace działa w podobnym segmencie rynku co Nasuni czy CTERA, które również zapewniają spójny dostęp do plików w różnych lokalizacjach geograficznych, jednakże obie firmy wykorzystują chmurę publiczną jako miejsce przechowywania danych.
– Zasadniczo różnimy się od naszych konkurentów. Oni skupiają się na infrastrukturze i buforują dane. To, co robimy, to całkowite oddzielenie danych od dowolnej infrastruktury – tłumaczy David Flynn.
Artykuł Wielka migracja danych pochodzi z serwisu CRN.
]]>Artykuł Startupy podkręcają tempo na rynku storage pochodzi z serwisu CRN.
]]>Na polskim rynku, jak na razie, dostępne są jedynie rozwiązania Qumulo. Wynika to z faktu, że amerykańska firma w ostatnich miesiącach rozbudowuje zespół i rozszerza swoją działalność w Europie Środkowo-Wschodniej. Ponadto oficjalnym OEM-em i partnerem strategicznym tego producenta w Polsce jest HPE. Qumulo opracowuje systemy do przechowywania i zarządzania plikami w lokalnej serwerowni i chmurze publicznej. Oprogramowanie tej marki może być instalowane na standardowych serwerach x86, a także występować jako natywna aplikacja w chmurze publicznej. Produkt cieszy się popularnością wśród firm działających w branży szeroko pojętej rozrywki – systemu Qumulo używa dziesięć największych studiów filmowych na świecie. Tego typu klienci zazwyczaj mają specyficzne wymagania i potrzebują rozwiązań, które zapewniają nie tylko dużą pojemność, ale również wysoką wydajność. Ta ostatnia jest konieczna chociażby do renderowania plików wideo. W związku z tym Qumulo obsługuje również konfiguracje obejmujące wyłącznie nośnik flash, co w przypadku rozwiązań typu NAS scale-out było do niedawna rzadko spotykanym zjawiskiem. Warto przy okazji dodać, że jednym z użytkowników Qumulo jest Instytut Metryki i Oceny Zdrowia (IHME) działający przy Szkole Medycznej Uniwersytetu Waszyngtońskiego. IHME codziennie tworzy raporty na temat rozprzestrzeniania się COVID-19 na świecie, w tym również prognozy dotyczące rozwoju epidemii. Instytut wykorzystuje Qumulo do przetwarzania nawet do 2 PB danych dziennie i obsługi wizualizacji na platformie Microsoft Azure.
Podkręcanie tempa
Nie ulega wątpliwości, że dalsze losy rynku pamięci masowych dla klientów biznesowych w znacznym stopniu zależą od rozwoju i spadku cen pamięci flash. Zresztą pokazują to dane dotyczące sprzedaży macierzy dyskowych w regionie EMEA. Według IDC w 2020 r. rynek w ujęciu wartościowym skurczył się o 6,5 proc., aczkolwiek segment systemów all-flash (AFA) wzrósł o niemal 4 proc. Ponadto udziały AFA w całym rynku macierzy dyskowych w regionie EMEA wyniosły 44 proc., podczas gdy w przypadku systemów hybrydowych było to 37 proc., a w segmencie urządzeń wyposażonych jedynie w nośniki HDD – 19 proc.
Rozwiązania AFA posiada w swojej ofercie każdy producent macierzy dyskowych, a do gry włączają się nowi gracze. Każdy z nich stara się zastosować w praktyce jakąś innowacyjną koncepcję i każdy ma swój pomysł na dalszy rozwój systemów tej klasy. Jednym z ciekawszych trendów jest wykorzystanie w systemach pamięci masowych procesorów GPU. W ostatnim czasie do współpracy z Nvidią przystąpiły dwa obiecujące startupy – Pavilion oraz VAST. Doświadczony dostawca półprzewodników niespełna dwa lata temu opracował schemat transmisji danych GPU Direct Storage, który pozwala zestawić bezpośrednią ścieżkę pomiędzy pamięcią masową a procesorami graficznymi. W ten sposób udaje się wyeliminować tzw. wąskie gardła w operacjach wejścia/wyjścia dla aplikacji intensywnie korzystających z danych. W testach przeprowadzonych przez Pavilion podczas przesyłania bloku danych z macierzy AFA do serwera DGX-A100 uzyskano 182 GB/s przy odczycie oraz 149 GB/s przy zapisie. Natomiast w przypadków plików było to 191 GB/s dla odczytu oraz 118 GB/s dla zapisu.
Tak zawrotne prędkości, jak na razie, przydają się tylko w nielicznych zastosowaniach – budowaniu modeli sztucznej inteligencji, analizy zetabajtów danych czy modelowania wolumetrycznego 3D. Na początku bieżącego roku Nvidia oraz VAST Data poinformowały o opracowaniu architektury referencyjnej dla wspólnie skonfigurowanych systemów przeznaczonych do obsługi dużych obciążeń. Natomiast lwia część klientów sięga po tradycyjne rozwiązania, które nie muszą korzystać z tak zaawansowanych technologii. Dlatego właśnie system VAST Data w klasycznej konfiguracji osiąga czterokrotnie niższą przepustowość od wersji z GPU Direct Storage. Co ciekawe, startup wykorzystuje w swoich systemach do przetwarzania danych znane z niezbyt dużej wytrzymałości nośniki QLC. W przypadku tych pamięci cykl zapisów na komórki wynosi 100, podczas gdy w przypadku MLC ten wskaźnik wynosi 10 tysięcy. Pomimo tego VAST Data udziela 10-letniej gwarancji na nośniki, co Jeff Denworth, CMO startupu tłumaczy zastosowaniem wydajnej redukcji danych oraz modelu zabezpieczeń Erasure Coding. Metoda zmniejszania liczby zapisów na dyskach flash obniża koszty całego rozwiązania i zwiększa jego wytrzymałość w porównaniu z klasycznymi macierzami all-flash.
Nietuzinkowe rozwiązania stosuje też Pavilion Data. Szefowie tej firmy stawiają na systemy wyposażone w co najmniej kilka kontrolerów. Ich zdaniem tradycyjna architektura macierzy z dwoma kontrolerami nijak pasuje do obecnych realiów i wymagań użytkowników. Natomiast system pamięci masowej z wieloma kontrolerami pozwala liniowo skalować pojemność i wydajność. Modułowa konstrukcja 4RU sytemu Pavilion Data pozwala na wykorzystywanie 20 aktywnych kontrolerów z portami 40 Gigabit Ethernet oraz 100 Gigabit Ethernet bądź InfiniBand i 72 standardowe dyski SSD NVMe 2,5. System charakteryzuje uniwersalność, o czym świadczy obsługiwanie bloków, plików oraz obiektów.
Migracja do chmury
Prędkość przetwarzania danych to jedno, ale nie mniej istotna jest kwestia ich lokalizacji. W tym przypadku ścierają się dwie szkoły – zwolenników przechowywania zasobów na lokalnych serwerach oraz sympatyków usług chmurowych.
– Ostatnie wydarzenia zmieniają sposób zakupu i użytkowania infrastruktury IT. Wymagania dotyczące modeli konsumpcji podobnych do chmury, w połączeniu z rozproszonym wdrażaniem IT i rozwojem cyfrowej transformacji będą wpływać na innowacje i konkurencyjność w okresie ożywienia – uważa Silvia Cosso, zastępca dyrektora ds. badań w IDC Western Europe.
W ostatnim czasie pojawiło się wiele koncepcji związanych z przechowywaniem danych w środowiskach chmurowych. Na ich tle wyróżnia się projekt amerykańskiego startupu Nasuni, który określa swój produkt jako NAS opracowany specjalnie dla chmury. Firma oferuje w modelu usługowym platformę do przechowywania plików zarówno w środowisku lokalnym, jak i chmury publicznej (AWS, Microsoft Azure, Google Cloud Platform). W rezultacie system Nasuni zapewnia nieograniczoną pojemność pamięci masowej, eliminując potrzebę planowania i przeprowadzania skomplikowanych aktualizacji sprzętu przez klientów za każdym razem, gdy ich zasoby danych przerastają ich wewnętrzną infrastrukturę. Ponadto usługa Nasuni obejmuje tworzenie kopii zapasowych, odtwarzanie danych po awarii i synchronizację plików znajdujących się na wielu serwerach. Rozwiązanie to, jako chyba jedyne na rynku, łączy globalny system plików z magazynem obiektowym.
– Modernizacja centrum danych to ogromna szansa rynkowa dla Nasuni i naszych partnerów. Chcemy dokonać przełomu na rynku przechowywania plików i kopii zapasowych o wartości ponad 30 miliardów dolarów dzięki nowemu podejściu opartemu na chmurze. Pandemia i związane z nią blokady przyspieszyły przejście z tradycyjnej infrastruktury centrum danych do chmury, ale większość pamięci masowych dla przedsiębiorstw nadal znajduje się w centrach danych – podsumowuje Paul Flanagan, CEO Nasuni.
Artykuł Startupy podkręcają tempo na rynku storage pochodzi z serwisu CRN.
]]>Artykuł Węzeł gordyjski w centrach danych pochodzi z serwisu CRN.
]]>– Taki stan rzeczy prowadzi do tego, że wzrasta liczba procesów wykonywanych manualnie, a także koszty związane z przetwarzaniem i przechowywaniem danych – podkreśla Floyd Christofferson, CEO StrongBox Data Solutions.
Ten całkiem już dojrzały startup z Oregonu od dwunastu lat zajmuje się porządkowaniem centrów danych. Jak wynika z portfolio klientów, do których należą tuzy takie jak NASA, Bosch, Canon, Boeing czy Sony Pictures, StrongBox koncentruje się przede wszystkim na klientach przechowujących petabajty danych.
– Nasz produkt zapewnia największą wartość dla firm z ogromnymi, złożonymi i cały czas przyrastającymi zbiorami danych, nie zaś dla organizacji z jedną macierzą NAS przechowującą 200 TB danych – przyznaje Floyd Christofferson.
Klienci jego firmy korzystają z systemu StrongLink przeznaczonego do zarządzania danymi przechowywanymi na heterogonicznych systemach pamięci masowej, niezależnie od tego czy pracują lokalnie, w chmurze publicznej bądź w środowisku hybrydowym. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub jako ISO. Autonomiczne silniki, oparte na metadanych, zapewniają użytkownikom globalny wgląd, wyszukiwanie i kontrolę nad plikami we wszystkich zasobach pamięci. Niedawno firma wprowadziła funkcję LTFS, która obsługuje biblioteki taśmowe pochodzące od dowolnego dostawcy.
Od chmury nie ma ucieczki
Gartner przewiduje, że do 2025 r. aż 99 proc. wszystkich plików będzie przechowywanych w środowiskach chmurowych, a pracownicy będą je tworzyć, współdzielić i magazynować nie widząc, gdzie one się znajdują – w chmurze czy na lokalnym serwerze. Zresztą do bardzo podobnych wniosków doszli analitycy Taneja Groups, którzy zauważają, że obecnie infrastruktura IT jest w 67 proc. wdrażana w środowisku lokalnym. Jednak za trzy lata ma to być już tylko 28 proc.
Te prognozy to miód na serce dla założycieli oraz inwestorów amerykańskiego startupu Nasuni. Firma opracowała platformę do przechowywania plików w chmurze, wykorzystującą globalny system plików UniFS. Rozwiązanie konsoliduje w środowisku chmurowym systemy NAS i silosy serwerów plików, zapewniając niemal nieograniczoną skalowalność. Nasuni obsługuje dostęp do plików za pośrednictwem wszystkich głównych protokołów, w tym SMB (CIFS), NFS, FTP/ /SFTP i HTTPS. Co ciekawe, firma oferuje również tworzenie kopii zapasowych, odzyskiwanie systemu po awarii czy globalne udostępnianie plików.
Założyciele startupu przekonują, że połączenie wymienionych funkcji z możliwościami chmury pozwala świadczyć usługi o połowę taniej niż w przypadku tradycyjnej infrastruktury. Zdaniem Andresa Rodrigueza, założyciela i CTO Nasuni, na rynku rozwiązań do przechowywania plików na przestrzeni ostatnich dwóch dekad nic się nie zmieniło. Dostawcy cały czas koncentrują się na urządzeniach, a tym samym ich rozwiązania nie są elastyczne, a ich eksploatacja generuje duże koszty.
– Firmy oraz instytucje funkcjonują teraz w niepewnych czasach. W związku z tym staje się zupełnie jasne, że jeszcze bardziej niż kiedykolwiek potrzebują chmury, zaś własne centrum danych to niepotrzebne zobowiązanie – dodaje Andres Rodriguez.
System dla chmury hybrydowej
Qumulo to kolejny przedstawiciel nowej fali dostawców rozwiązań storage, którzy chcą ożywić nieco skostniały rynek. Startup opracowuje systemy NAS scale out, będące alternatywą dla Dell EMC Isilon czy NetApp FAS Series. Firma, w przeciwieństwie do swoich konkurentów, od samego początku pracuje nad produktem przeznaczonym do pracy w środowisku chmury hybrydowej. System jest zdefiniowany programowo, co ułatwia jego rozbudowę oraz współpracę z zewnętrznymi platformami AWS, Google Cloud, Dell EMC czy HPE. Ten ostatni producent włączył już do swojej oferty rozwiązania Qumulo i sprzedaje je w regionie EMEA. Zapewniają dostęp do szerokiej gamy funkcji, w tym analityki w czasie rzeczywistym, informując na bieżąco o pojemności, IOPS czy najbardziej aktywnych klientach podłączonych do klastra. System jest dostępny w zróżnicowanych konfiguracjach, np. all flash lub jako rozwiązanie do archiwizacji. Jedną z ciekawszych funkcjonalności jest Shift, która służy do konwersji plików przechowywanych w fizycznych i wirtualnych macierzach NAS na obiekty w pamięci masowej AWS3 w chmurze.
– Przedsiębiorstwa przechowują dane w plikach, aczkolwiek chcą używać natywnych aplikacji chmurowych, które zwyczaj obsługują pamięć obiektową. Dlatego oferujemy naszym klientom łatwy sposób na magazynowanie cyfrowych zasobów w obu formatach – wyjaśnia Barry Russell, General Manager of Cloud w Qumulo.
Startup często wdraża systemy przeznaczone na potrzeby projektów związanych z multimediami i rozrywką. Przykładowo podczas renderowania plików wideo potrzebny jest szybki i rozszerzalny dysk. Wówczas można skorzystać z uzupełniających usług w chmurze, takich jak AWS Elemental MediaConnect, Amazon Elastic Transcoder czy AWS Elemental Live.
Kubernetes i dane
Większość baz danych opracowano z myślą o pracy na fizycznych bądź wirtualnych serwerach. Nikt wówczas nie miał jeszcze pojęcia o Dockerze i aplikacjach kontenerowych. Jednakże wraz z rosnącą popularnością konteneryzacji sprawy zaczęły się wymykać spod kontroli.
– Zauważyliśmy potrzebę nowego podejścia do zarządzania aplikacjami i usługami w przedsiębiorstwach oraz instytucjach. Wynika ona z szybkości innowacji, przyrastającej liczby urządzeń, nowych aplikacji i usług. Rozumiemy ciężar z jakim zmagają się twórcy oprogramowania oraz osoby zarządzające złożoną architekturą. Właśnie dlatego stworzyliśmy specjalną platformę – wyjaśnia Partha Seetala, CEO Robin.io.
Tradycyjne aplikacje są w większości przypadków stanowe, co oznacza, że magazynują ważne dane w pamięci, plikach i bazach danych. A kontenery obsługują zazwyczaj aplikacje bezstanowe, które nie przechowują informacji pojawiających się pomiędzy poszczególnymi zapytaniami klientów. Kubernetes, najpopularniejsze narzędzie do zarządzania serwisami i zadaniami uruchamianymi w kontenerach, pozwala przenosić bezstanowe aplikacje pomiędzy chmurami różnych dostawców. Nie radzi sobie natomiast z aplikacjami stanowymi. Powód? Każdy dostawca usług chmurowych ma własne metody automatyzacji, wdrażania i monitorowania aplikacji stanowych, co utrudnia ich migrację.
– Udostępniliśmy na Platform Robin usługę umożliwiającą przenoszenie aplikacji stanowych między chmurami, przy zachowaniu odpowiedniego SLA, opóźnień i kosztów. Nikomu przed nami nie udało się skutecznie rozwiązać tego problemu – mówi Partha Seetala.
Platforma automatyzacji Robin.io umożliwia firmom wdrażanie złożonych aplikacji, intensywnie korzystających z danych i sieci oraz zarządzanie nimi w ramach usługi as-a-service w dowolnym miejscu, środowisku lokalnym lub chmurze. To możliwe dzięki opracowaniu autorskiej architektury, której kluczowym elementem jest warstwa oddzielająca zasoby obliczeniowe od pamięci masowej. Rozwiązanie Robin.io zostało wdrożone m.in. w dużych koncernach świadczących usługi finansowe, a ostatnio zyskuje dużą popularność w sektorze telekomunikacyjnym. Jednym z klientów jest japoński operator Rakuten, pracujący nad uruchomieniem sieci 5G. Kontenery mają zastąpić maszyny wirtualne przy wirtualizacji funkcji sieciowych (NFV)i w sieci dostępu radiowego (RAN).
Rok powstania: 2013 r.
Fundusze Venture Capital: 46 mln dol.
Główna siedziba: San Francisco
CEO: Partha Seetala
Rok powstania: 2012 r.
Fundusze Venture Capital: 347,3 mln dol.
Główna siedziba: Seattle
CEO: Bill Richter
Nasuni
Rok powstania: 2008 r.
Fundusze Venture Capital: 187 mln dol.
Główna siedziba: Boston
CEO: Paul Flanagan
StrongBox Data Solutions
Rok powstania: 2008 r.
Fundusze Venture Capital: 34,4 mln dol.
Główna siedziba: Portland, Montreal
CEO: Floyd Christofferson
Artykuł Węzeł gordyjski w centrach danych pochodzi z serwisu CRN.
]]>