Wirtualne naczynia połączone
Macierze RAID to przeważająca część rynku pamięci masowych. Najwięksi ich producenci mają więc zapewnione miejsce w czołówce dostawców rozwiązań storage'owych. Konkurencja w tym segmencie jest ogromna, rozwój technologiczny powinien więc następować błyskawicznie. Okazuje się jednak, że w 2002 roku można mówić najwyżej o ewolucji, w dodatku wyjątkowo powolnej.

Tak jak pamięci taśmowe przeznaczone są do zabezpieczania danych w systemach archiwizacji, macierze RAID (Redundant Arrays of Independent Disks) stosowane są do bieżącej obsługi danych. Zapewniają użytkownikowi szybszy dostęp do zasobów dyskowych i natychmiastowe ich odtworzenie w przypadku awarii systemu. Dane zabezpieczone są dzięki nadmiarowości zapisu (redundancji, patrz: ramka ’Techniki zapisu danych w rozwiązaniach RAID’). W razie awarii np. jednego z dysków zasoby odtwarzane są na podstawie zapisów utrwalonych na innych dyskach. Potrzeba stosowania takiego zabezpieczania systemów przed utratą danych nie wzięła się oczywiście znikąd. Uszkodzenia dysków są najczęstszą (wg specjalistów, z którymi rozmawialiśmy, ponad 50 proc.) przyczyną awarii infrastruktury IT.
O dysku, którego nie ma
Od kilku lat, mówiąc o rozwiązaniach pamięci masowych, producenci używają magicznego słowa wirtualizacja. Jego rozszyfrowanie jest z pozoru proste. Systemy RAID wyposażone w odpowiednie oprogramowanie pozwalają połączyć ze sobą wiele dysków (także różniących się np. pojemnością) w taki sposób, aby użytkownik widział jeden (lub kilka wyznaczonych) dysków wirtualnych. Opisane rozwiązanie to wirtualizacja na poziomie macierzy. Możliwa i coraz częściej stosowana jest także wirtualizacja na poziomie serwera i sieci (o tym w rozdziale na temat rozwiązań NAS i SAN).
Wirtualizacja znacznie ułatwia administrowanie systemem informatycznym. Nie trzeba już bowiem zwracać uwagi na liczbę i typ twardych dysków. Administrator ma po prostu do wykorzystania pewną przestrzeń i jest to dla niego dość komfortowa sytuacja. Wydawałoby się więc, że rozwiązania tego typu błyskawicznie zdobędą rynek. Tymczasem okazuje się, że przez kilka ostatnich lat o wirtualizacji głównie… mówiono. Nikt nie oferował rozwiązań, w których wykorzystano by wszystkie nośniki danych instalowane przez lata w systemach potencjalnych klientów. Jak twierdzą dystrybutorzy, przyczyną tego stanu nie były wyłącznie bariery technologiczne, lecz przede wszystkim brak popytu na tego rodzaju produkty. Większość przedstawicieli firm dystrybucyjnych przyznaje, że najpierw trzeba wykonać ogromną pracę mającą klientom uświadomić jak ważne jest bezpieczeństwo systemu i prostota jego obsługi. Poza tym rozwiązania służące wirtualizacji były i nadal są zbyt drogie, by można było mówić o masowym ich zastosowaniu. W 2002 roku określenie wirtualizacja na stałe już jednak wpisało się do storage’owego słownika. Ceny rozwiązań spadły, wprawdzie nieznacznie, ale to już coś! Poza tym niemal wszyscy najwięksi producenci pamięci masowych ogłosili już swoje strategie wirtualizowania zasobów dyskowych.
Wirtualizacja według…
Jako pierwsze kompleksową ofertę przedstawiło HP. W pracach nad wirtualizacją zasobów dysków pomogło temu producentowi połączenie z Compaqiem i wykupienie pod koniec 2002 roku spółki StorageApps. Dzięki tym posunięciom HP proponuje dziś klientom wirtualizację na trzech poziomach: serwera, macierzy i sieci. Do przeprowadzenia tego procesu na dwóch pierwszych poziomach służą produkty znane na rynku pod nazwami OpenView Storage Allocator i Virtual Array (nad nim pracowali specjaliści z Compaqa). Wchłonięcie StorageApps zaowocowało wprowadzeniem do oferty rozwiązania SANlink (witrualizacja na poziomie sieci).
Od początku bieżącego roku intensywnie nad wirtualizacją pracuje również IBM. Efektem jest Storage Tank. Producent przygotowuje dwa nowe rozwiązania: pierwsze to wirtualizacja na poziomie macierzy, a drugie – sieci (zaprojektowane przez firmę DataCore).
Inaczej do zagadnienia podchodzą EMC i Sun. Obydwaj producenci z założenia wirtualizują dane wyłącznie na poziomie macierzy dyskowych. Strategia EMC (Automated Information Storage) zakłada, że w przyszłości wspólna wirtualna pula będzie tworzona przez oprogramowanie instalowane na macierzach dyskowych i serwerach. Sun w swoim rozwiązaniu wykorzystuje oprogramowanie opracowane przez Vicom.
Standard 320
Istnieją dwa podstawowe kryteria podziału macierzy dyskowych. Pierwsze dotyczy umiejscowienia rozwiązania względem serwera. Tańsze i od lat stosowane są macierze wewnętrzne. Tworzy je kontroler RAID, zainstalowany w gnieździe PCI płyty głównej serwera, i podłączone do niego twarde dyski. Rozwiązanie takie ma jednak podstawową wadę – nie można go rozbudowywać (dodawać kolejnych dysków, a tym samym zwiększać pojemności całej macierzy). Nic więc dziwnego, że klienci wybierają je coraz rzadziej. Według przewidywań Gartner Group do 2005 roku niemal 90 proc. macierzy RAID stanowić będą urządzenia zewnętrzne. W tym rozwiązaniu kontroler (z obudową i dyskami) podłączony jest do serwera (lub stacji roboczej) za pośrednictwem portu SCSI. Rozwiązanie jest korzystne dla użytkownika, bo pozwala na niemal nieograniczone powiększanie przestrzeni dyskowej. Ponadto macierz zewnętrzna jest niezależna od platformy sprzętowej i software’owej systemu (odporna na ich awarie).
Poza wyprowadzeniem macierzy dyskowych na zewnątrz serwera 2002 rok przyniósł znacznie przyspieszenie transferu danych. Wprawdzie już w ubiegłym roku na rynku pojawiły się nośniki danych pracujące w standardzie 320, jednak można je było montować w szafach pracujących wyłącznie w standardzie 160. Taka była więc rzeczywista prędkość transferu. W połowie 2002 r. w ofertach kilku producentów pojawiły się już szafy z oznaczeniem 320. Dane płyną więc w systemach RAID z dwukrotnie większą prędkością.
IDE bywają zawodne
Drugie kryterium podziału macierzy dotyczy stosowanego w nich nośnika danych (typ twardych dysków). Jeszcze trzy lata temu macierze wyposażano wyłącznie w dyski SCSI, gdyż kontroler IDE nie mógł komunikować się z więcej niż jednym urządzeniem jednocześnie. Zastosowanie dysków takiego typu istotnie spowolniłoby więc działanie macierzy. Dzięki wykorzystaniu IDE możliwe było budowanie wyłącznie urządzenia typu RAID 0 i RAID 1 (patrz: ramka ’Techniki zapisu danych w rozwiązaniach RAID’). Doszło więc do technologicznego pata. Tańsze, potencjalnie popularniejsze systemy IDE, nie spełniały zbyt wielu wymagań klientów.
Sytuację poprawiło dopiero wprowadzenie większych pojemności buforów dyskowych (cache). Dane mogą teraz być transferowane z dysku do bufora z prędkością pozwalającą na przełączanie się kontrolera na kolejny dysk (oczywiście, jeśli zachodzi taka potrzeba). Ważne, że przełączanie nie powoduje zauważalnych opóźnień w pracy systemu. Innym sposobem ominięcia tego problemu jest zwielokrotnienie liczby kanałów IDE (np. do 4).
Zwiększony poziom bezpieczeństwa w systemach macierzy zewnętrznych zapewnia funkcja hot swap, stosowana już niemal we wszystkich oferowanych rozwiązaniach. Zwykle także w macierzach RAID instalowany jest zapasowy dysk niewykorzystywany podczas normalnej pracy systemu, tylko w razie awarii innego nośnika danych automatycznie przejmujący jego funkcje.
Pisząc o macierzach, w których zastosowano dyski IDE, i wychwalając ich zalety, należy jednak jasno stwierdzić, że rozwiązania te cieszą się popularnością wyłącznie ze względu na niską cenę. W porównaniu z urządzeniami SCSI są bowiem zdecydowanie mniej stabilne.
Czołówka po fuzji
Rynek macierzy dyskowych został podzielony już kilka lat temu. Wśród producentów kontrolerów RAID od lat prym wiedzie Adaptec. Jeśli wierzyć danym przekazywanym przez dystrybutorów, należy do niego ponad połowa rynku, a jego pozycji nic nie zagraża. Rok 2002 jednak przyniósł spore zamieszanie wśród największych światowych producentów rozwiązań macierzy RAID. Do tej pory na świecie na pierwszym miejscu w rankingu sprzedaży znajdował się EMC. Za nim plasowali się najwięksi producenci serwerów. Nic w tym zresztą dziwnego, skoro macierze sprzedawane są najczęściej właśnie z serwerami. W gronie największych rynkowych graczy w ubiegłym roku znaleźli się więc: Compaq, Hitachi i IBM. Dalszą pozycję zajmowało HP. W tym roku jak wiadomo doszło do połączenia HP z Compaqiem. Macierze obydwu producentów oferowane są już jako produkty HP. W tegorocznym rankingu producentów pierwsza pozycja przypadnie więc prawdopodobnie właśnie temu dostawcy. Zresztą już w ubiegłorocznym raporcie IDC uwzględniono wyniki połączenia tych dwóch firm.
Jeszcze jedno wydarzenie może wprowadzić sporo zamieszania na rynku macierzy dyskowych. Tandberg Data wprowadza do oferty serię macierzy o nazwie StorageCab. Firma znana była dotychczas wyłącznie z rynku urządzeń taśmowych. W rankingach zajmowała tam zresztą znaczące miejsce.
Podobne artykuły
WYNIKI konkursu z nagrodami – Plebiscyt CRN za 2018
Drodzy Czytelnicy, dziękujemy za wzięcie udziału w głosowaniu w Plebiscycie CRN Polska i wyłonienie laureatów - osób i firm, które w 2018 roku miały największy wpływ na kanał dystrybucyjny polskiej branży IT. Poniżej przedstawiamy zdobywców nagród przyznanych za najciekawsze i najbardziej wyczerpujące odpowiedzi na pytania konkursowe, zamieszczone w formularzu do głosowania.
WYNIKI konkursu z nagrodami – Plebiscyt CRN za 2017
Drodzy Czytelnicy, dziękujemy za wzięcie udziału w głosowaniu w Plebiscycie CRN Polska i wyłonienie laureatów - osób i firm, które w 2017 roku miały największy wpływ na kanał dystrybucyjny polskiej branży IT. Poniżej przedstawiamy zdobywców nagród przyznanych za najciekawsze i najbardziej wyczerpujące odpowiedzi na pytania konkursowe, zamieszczone w formularzu do głosowania.