Komputery ze współczesnym światem

Rodzaje połączeń systemów przechowywania. Wybór systemu pamięci masowej Architektura do łączenia systemów pamięci masowej san storage

Ruszamy z nowym działem o nazwie "Likbez". Tutaj zostaną opisane rzeczy z pozoru dobrze znane, ale jak się często okazuje nie każdemu i nie tak dobrze. Mamy nadzieję, że ta sekcja jest pomocna.

Tak więc numer 1 - „Systemy przechowywanie danych».

Systemy przechowywania danych.

W języku angielskim nazywa się je jednym słowem - przechowywanie, co jest bardzo wygodne. Ale to słowo jest tłumaczone na rosyjski raczej niezdarnie - „repozytorium”. Często w slangu „IT-shnikov” używają słowa „storadzh” w rosyjskiej transkrypcji lub słowa „przechowywanie”, ale jest to całkowicie złe maniery. Dlatego będziemy używać terminu „systemy przechowywania danych”, w skrócie systemy przechowywania lub po prostu „systemy przechowywania”.

Do nośników danych zalicza się dowolne urządzenia służące do zapisu danych: tzw. „dyski flash”, dyski kompaktowe (CD, DVD, ZIP), napędy taśmowe (Tape), dyski twarde (Dysk twardy, są one również nazywane „dyskami twardymi” w staromodny sposób, ponieważ ich pierwsze modele przypominały klips z wkładami dziewiętnastowiecznego karabinu o tej samej nazwie) itp. Dyski twarde są używane nie tylko wewnątrz komputerów, ale także jako zewnętrzne urządzenia USB do zapisywania informacji, a nawet np. jednym z pierwszych modeli iPoda jest mały dysk twardy z o średnicy 1,8 cala, z wyjściem słuchawkowym i wbudowanym ekranem.

W Ostatnio coraz większą popularność zyskują tzw. „Solid-state” systemy pamięci masowej SSD (Solid State Disk lub Solid State Drive), które są w zasadzie podobne do „dysku flash” do aparatu lub smartfona, posiadają jedynie kontroler i większą ilość przechowywanych danych. w odróżnieniu twardy dysk, Dysk SSD nie ma części ruchomych mechanicznie. Jak dotąd ceny takich systemów pamięci masowej są dość wysokie, ale szybko spadają.

Wszystko to są urządzenia konsumenckie, a wśród systemów przemysłowych należy wyróżnić przede wszystkim sprzętowe systemy pamięci masowej: macierze dysków twardych, tzw. Kontrolery RAID dla nich, systemy pamięci taśmowych do długoterminowego przechowywania danych. Ponadto osobna klasa: kontrolery do systemów pamięci masowej, do zarządzania kopiami zapasowymi danych, tworzenia migawek w systemie pamięci masowej w celu ich późniejszego odzyskiwania, replikacji danych itp.). Systemy pamięci masowej obejmują również urządzenia sieciowe (karty HBA, przełączniki Fibre Channel, kable FC/SAS itp.). I wreszcie, opracowano wielkoskalowe rozwiązania do przechowywania danych, archiwizacji, odzyskiwania danych i odporności na awarie (odtwarzanie po awarii).

Skąd pochodzą dane, które należy przechowywać? Od nas, bliskich, użytkowników, od programów aplikacyjnych, poczty elektronicznej, a także od różnego sprzętu - serwerów plików, serwerów baz danych. Ponadto dostawca dużej ilości danych – tzw. Urządzenia M2M (komunikacja Machine-to-Machine) - wszelkiego rodzaju czujniki, sensory, kamery itp.

W zależności od częstotliwości wykorzystania przechowywanych danych, systemy pamięci masowej można podzielić na systemy pamięci masowej krótkoterminowej (pamięć online), średnioterminową (pamięć near-line) i długoterminową (pamięć offline).

Pierwszy można przypisać dowolnemu dyskowi twardemu (lub SSD). komputer osobisty. Drugi i trzeci to zewnętrzne systemy pamięci masowej DAS (Direct Attached Storage), którymi może być macierz zewnętrznych w stosunku do komputera dysków (Disk Array). Te z kolei można również podzielić na „tylko macierz dysków” JBOD (Just a Bunch Of Disks) oraz macierz z kontrolerem sterującym iDAS (intelligent disk array storage).

Istnieją trzy rodzaje zewnętrznych systemów pamięci masowej DAS (Direct Attached Storage), SAN (Storage Area Network) i NAS (Network Attached Storage). Niestety, nawet wielu doświadczonych informatyków nie potrafi wyjaśnić różnicy między SAN a NAS, twierdząc, że kiedyś była ta różnica, a teraz rzekomo już jej nie ma. W rzeczywistości istnieje różnica i to znacząca (patrz ryc. 1).

Rysunek 1. Różnica między SAN a NAS.

W sieci SAN same serwery są w rzeczywistości połączone z systemem pamięci masowej za pośrednictwem sieci pamięci masowej SAN. W przypadku NAS serwery sieciowe są połączone za pośrednictwem sieci LAN ze wspólnym systemem plików w macierzy RAID.

Podstawowe protokoły połączenia pamięci masowej

protokół SCSI(Small Computer System Interface), wymawiane jako „skási”, protokół opracowany w połowie lat 80. do łączenia urządzeń zewnętrznych z minikomputerami. Jego wersja SCSI-3 jest podstawą dla wszystkich protokołów komunikacyjnych pamięci masowej i wykorzystuje wspólny zestaw poleceń SCSI. Jego głównymi zaletami są: niezależność od wykorzystywanego serwera, możliwość równoległej pracy kilku urządzeń, wysoka prędkość przesyłu danych. Wady: ograniczona liczba podłączonych urządzeń, bardzo ograniczony zasięg połączeń.

Protokół FC(Fiber Channel), protokół wewnętrzny między serwerem a współdzieloną pamięcią masową, kontrolerem, dyskami. Jest to szeroko stosowany protokół komunikacji szeregowej działający z szybkością 4 lub 8 Gigabitów na sekundę (Gb/s). Jak sama nazwa wskazuje, działa poprzez światłowody (światłowód), ale może również działać na miedzi. Fibre Channel to podstawowy protokół systemów pamięci masowej FC SAN.

protokół iSCSI(Internet Small Computer System Interface), standardowy protokół do przesyłania bloków danych przez dobrze znany protokół TCP/IP, tj. SCSI przez IP. iSCSI można postrzegać jako szybkie i niedrogie rozwiązanie pamięci masowej dla zdalnie podłączonych systemów pamięci masowej przez Internet. iSCSI hermetyzuje polecenia SCSI w pakietach TCP/IP w celu transmisji przez sieć IP.

protokół SAS(szeregowy SCSI). SAS wykorzystuje szeregowy transfer danych i jest kompatybilny z dyskami twardymi SATA. Obecnie SAS może przesyłać dane z prędkością 3 Gb/s lub 6 Gb/s i obsługuje tryb pełnego dupleksu, tj. może przesyłać dane w obu kierunkach z tą samą prędkością.

Rodzaje systemów przechowywania.

Można wyróżnić trzy główne typy systemów przechowywania:

  • DAS (pamięć masowa podłączana bezpośrednio)
  • NAS (sieciowa pamięć masowa)
  • SAN (sieć pamięci masowej)

Systemy pamięci masowej z bezpośrednim podłączeniem dysków DAS zostały opracowane jeszcze pod koniec lat 70., w związku z gwałtownym wzrostem danych użytkowników, które po prostu fizycznie nie mieściły się w wewnętrznej pamięci długoterminowej komputerów (dla młodych ludzi zauważmy, że nie jesteśmy mowa tu o komputerach osobistych, to jeszcze ich nie było, ale duże komputery, tzw. mainframe). Szybkość przesyłania danych w DAS nie była bardzo wysoka, od 20 do 80 Mb/s, ale na ówczesne potrzeby w zupełności wystarczała.

Rysunek 2. DAS

przechowywanie z połączenie internetowe NAS pojawił się na początku lat 90. Powodem był szybki rozwój sieci i krytyczne wymagania dotyczące udostępniania dużych ilości danych w sieci przedsiębiorstwa lub operatora. NAS używał specjalnego sieciowego systemu plików CIFS (Windows) lub NFS (Linux), więc różne serwery dla różnych użytkowników mogły odczytywać ten sam plik z NAS w tym samym czasie. Szybkość przesyłania danych była już wyższa: 1 - 10 Gb/s.

Rysunek 3. NAS

W połowie lat 90. pojawiły się sieci łączące urządzenia pamięci masowej FC SAN. Ich rozwój spowodowany był potrzebą uporządkowania danych rozproszonych w sieci. Jedno urządzenie pamięci masowej w sieci SAN można podzielić na kilka małych węzłów, zwanych jednostkami LUN (Logical Unit Number), z których każdy należy do jednego serwera. Szybkość przesyłania danych wzrosła do 2-8 Gb/s. Takie systemy pamięci masowej mogą zapewniać technologie ochrony przed utratą danych (migawki, tworzenie kopii zapasowych).

Rysunek 4. FC SAN

Innym rodzajem sieci SAN jest sieć IP SAN (IP Storage Area Network), opracowana na początku XXI wieku. Sieci FC SAN były drogie, trudne w zarządzaniu, a sieci IP osiągnęły szczyt, dlatego narodził się ten standard. Systemy pamięci masowej były połączone z serwerami za pomocą kontrolera iSCSI za pośrednictwem przełączników IP i zapewniały szybkość przesyłania danych na poziomie 1–10 Gb/s.

Ryc.5. IP SAN.

Poniższa tabela przedstawia niektóre cechy porównawcze wszystkich rozważanych systemów przechowywania:

Typ NAS SAN
Parametr FC S.A.N. IP SAN DAS
Typ skrzyni biegów SCSI, FC, SAS FC IP IP
Typ danych Blok danych Plik Blok danych Blok danych
Typowym zastosowaniem Każdy Serwer plików Baza danych CCTV
Korzyść Doskonała kompatybilność Łatwość instalacji, niski koszt Dobra skalowalność Dobra skalowalność
Wady Trudność zarządzania.

Nieefektywne wykorzystanie zasobów. Słaba skalowalność

Niska wydajność.

Ograniczenia w stosowaniu

Wysoka cena.

Złożoność konfiguracji skalowania

Kiepska wydajność

Krótko mówiąc, sieci SAN są zaprojektowane do przesyłania ogromnych bloków danych do pamięci masowej, podczas gdy NAS zapewniają dostęp do danych na poziomie plików. Dzięki połączeniu SAN + NAS można uzyskać wysoki stopień integracji danych, wysoką wydajność i udostępnianie plików. Takie systemy nazywane są ujednoliconą pamięcią masową - „ujednoliconymi systemami pamięci masowej”.

Zunifikowane systemy pamięci masowej: Architektura NAS, która obsługuje zarówno NAS oparty na plikach, jak i SAN oparty na blokach. Takie systemy zostały opracowane na początku XXI wieku w celu rozwiązania problemów administracyjnych i wysokiego całkowitego kosztu posiadania oddzielnych systemów w jednym przedsiębiorstwie. Ten system pamięci masowej obsługuje prawie wszystkie protokoły: FC, iSCSI, FCoE, NFS, CIFS.

Dyski twarde

Wszystkie dyski twarde można podzielić na dwa główne typy: HDD (dysk twardy, co w rzeczywistości tłumaczy się jako „dysk twardy”) i SSD (dysk półprzewodnikowy, - tak zwany „dysk półprzewodnikowy”). Oznacza to, że oba dyski są dyskami twardymi. Czym w takim razie jest „miękki dysk”, czy w ogóle istnieją takie rzeczy? Tak, kiedyś były, nazywano je „dyskietkami” (tak je nazywano ze względu na charakterystyczne „trzaskanie” w napędzie podczas pracy). Dyski do nich wciąż można zobaczyć w blokach systemowych starych komputerów, które zostały zachowane w niektórych agencjach rządowych. Jednak z całym pragnieniem takich dysków magnetycznych trudno przypisać systemom pamięci masowej. Były to pewne analogi obecnych „dysków flash”, choć o bardzo małej pojemności.

Różnica między dyskiem twardym a dyskiem SSD polega na tym, że dysk twardy ma kilka koncentrycznych dysków magnetycznych wewnątrz i złożoną mechanikę, która porusza magnetycznymi głowicami odczytu i zapisu, podczas gdy dysk SSD nie ma żadnych mechanicznych części ruchomych i jest w rzeczywistości chipem wciśniętym w plastik . Dlatego nazywanie „dyskami twardymi” tylko HDD, ściśle mówiąc, jest nieprawidłowe.

Dyski twarde można sklasyfikować według następujących parametrów:

  • Konstrukcja: HDD, SSD;
  • Średnica dysku twardego w calach: 3,5 cala, 2,5 cala, 1,8 cala;
  • Interfejs: ATA/IDE, SATA/NL SAS, SCSI, SAS, FC
  • Klasa użytkowania: indywidualna (klasa desktop), korporacyjna (klasa korporacyjna).
Parametr SATA SAS NL-SAS Dysk SSD
Prędkość obrotowa (obr./min) 7200 15000/10000 7200 NA
Typowa pojemność (TB) 1T/2T/3T 0,3 T/0,6 T/0,9 T 2T/3T/4T 0,1 T/0,2 T/0,4 T
MTBF (godzina) 1 200 000 1 600 000 1 200 000 2 000 000
Notatki Rozwój dysków twardych ATA z szeregowym transferem danych.

SATA 2.0 obsługuje szybkość transferu 300 MB/s, SATA3.0 obsługuje do 600 MB/s.

Roczny wskaźnik AFR (Annualized Failure Rate) dla dysków SATA wynosi około 2%.

Dyski twarde SATA z interfejsem SAS nadają się do hierarchii (poziomowania). Średni roczny współczynnik AFR (Annualized Failure Rate) dla dysków NL-SAS wynosi około 2%. Dyski półprzewodnikowe wykonane z elektronicznych układów scalonych pamięci, w tym jednostki sterującej i układu scalonego (FLASH/DRAM). Specyfikacja interfejsu, funkcja i sposób użycia są takie same jak w przypadku dysku twardego, rozmiar i kształt są takie same.

Charakterystyka dysków twardych.

  • Pojemność

W nowoczesnych dyskach twardych pojemność jest mierzona w gigabajtach lub terabajtach. W przypadku dysku twardego wartość ta jest wielokrotnością pojemności jednego dysku magnetycznego w pudełku pomnożonej przez liczbę dysków magnetycznych, których zwykle jest kilka.

  • Prędkość obrotowa (tylko dysk twardy)

Prędkość obrotowa dysków magnetycznych wewnątrz napędu, mierzona w obrotach na minutę RPM (Rotation Per Minute), wynosi zwykle 5400 RPM lub 7200 RPM. Dyski twarde z interfejsami SCSI/SAS mają prędkość obrotową 10000–15000 obr./min.

  • Średni czas dostępu =Średni czas wyszukiwania + Średni czas oczekiwania, tj. czas na pobranie informacji z dysku.
  • Szybkość transmisji

Są to prędkości odczytu i zapisu danych na dysku twardym, mierzone w megabajtach na sekundę (MB/S).

  • IOPS (wejście/wyjście na sekundę)

Liczba operacji wejścia/wyjścia (lub odczytu i zapisu) na sekundę (Input/Output Operations Per Second), jeden z głównych wskaźników pomiaru wydajności dysku. W przypadku aplikacji z częstym odczytem i zapisem, takich jak OLTP (Online Transaction Processing) - przetwarzanie transakcji online, IOPS jest najważniejszym wskaźnikiem, ponieważ. zależy to od wydajności aplikacji biznesowej. Innym ważnym wskaźnikiem jest przepustowość danych, którą można z grubsza przetłumaczyć jako „przepustowość przesyłania danych”, która pokazuje, ile danych można przesłać w jednostce czasu.

NALOT

Bez względu na to, jak niezawodne są dyski twarde, dane są nadal czasami tracone z różnych powodów. Dlatego zaproponowano technologię RAID (Redundant Array of Independent Disks) - macierz niezależnych dysków z redundancją przechowywania danych. Redundancja oznacza, że ​​wszystkie bajty danych zapisanych na jednym dysku są duplikowane na innym dysku i mogą być użyte w przypadku awarii pierwszego dysku. Ponadto technologia ta pomaga zwiększyć IOPS.

Podstawowe pojęcia RAID to stripping (tzw. „striping” lub separacja) i mirroring (tzw. „mirroring” lub duplikacja) danych. Decydują ich kombinacje Różne rodzaje Macierze RAID dysków twardych.

Są następujące poziomy RAID-tablice:

Kombinacje tych typów dają początek kilku nowym typom RAID:

Rysunek wyjaśnia sposób implementacji RAID 0 (podział):

Ryż. 6. RAID 0.

A tak przebiega RAID 1 (duplikacja):

Ryż. 7. RAID 1.

I tak działa RAID 3. XOR to funkcja logiczna „exclusive OR” (eXclusive OR). Za jej pomocą obliczana jest wartość parzystości dla bloków danych A, B, C, D... , które są zapisywane na osobnym dysku.

Ryż. 8.RAID 3.

Powyższe schematy dobrze ilustrują zasadę działania RAID i nie wymagają komentarzy. Nie będziemy prezentować schematów innych poziomów RAID, chętni mogą je znaleźć w Internecie.

Główne cechy typów RAID podano w tabeli.

Oprogramowanie pamięci masowej

Oprogramowanie pamięci masowej można podzielić na następujące kategorie:

  1. Zarządzanie i administracja (Zarządzanie): zarządzanie i ustawianie parametrów infrastruktury: wentylacja, chłodzenie, tryby pracy dysków itp., kontrola pory dnia itp.
  2. Ochrona danych: Migawka („migawka” stanu dysku), kopiowanie zawartości LUN, wielokrotne duplikowanie (split mirror), zdalne duplikowanie danych (Remote Replication), ciągła ochrona danych CDP (Continuous Data Protection) itp.
  3. Poprawa niezawodności: różne oprogramowanie do wielokrotnego kopiowania i redundancji tras przesyłania danych w centrach danych i między nimi.
  4. Poprawę wydajności: Technologia Thin Provisioning, automatyczna warstwowa pamięć masowa, deduplikacja, zarządzanie jakością usług, wstępne pobieranie pamięci podręcznej, partycjonowanie, automatyczna migracja danych, spowalnianie dysku

Bardzo ciekawa technologia cienkie udostępnianie". Jak to często bywa w IT, terminy są często trudne do odpowiedniego przetłumaczenia na język rosyjski, na przykład trudno jest dokładnie przetłumaczyć słowo „provisioning” („zapewnianie”, „wsparcie”, „zapewnianie” – żaden z tych terminów nie oddaje sens całkowicie). A kiedy jest „cienki”…

Dla zilustrowania zasady „szczupłej rezerwy” można przytoczyć kredyt bankowy. Kiedy bank wydaje 10 tysięcy kart kredytowych z limitem 500 tysięcy, nie musi mieć na koncie 5 miliardów, żeby obsłużyć taki wolumen kredytów. Użytkownicy kart kredytowych zwykle nie wydają od razu całego kredytu, a wykorzystują tylko jego niewielką część. Jednak każdy użytkownik indywidualnie może wykorzystać całą lub prawie całą kwotę kredytu, o ile nie wyczerpała się łączna kwota środków banku.

Ryż. 9. cienkie udostępnianie.

Tym samym zastosowanie cienkiej alokacji pozwala rozwiązać problem nieefektywnej alokacji przestrzeni w sieci SAN, zaoszczędzić miejsce, uprościć procedury administracyjne przydzielania przestrzeni aplikacjom na storage oraz zastosować tzw. więcej miejsca na aplikacje niż fizycznie mamy, licząc na to, że aplikacje nie zajmą całej przestrzeni jednocześnie. W miarę potrzeby istnieje możliwość późniejszego zwiększenia fizycznej pojemności magazynu.

Podział systemu przechowywania na poziomy (tiered storage) zakłada przechowywanie różnych danych na urządzeniach pamięci, których wydajność odpowiada częstotliwości dostępu do tych danych. Na przykład często używane dane można umieścić w „pamięci online” na Dyski SSD z dużą prędkością dostępu, wysoką wydajnością. Jednak cena takich dysków jest wciąż wysoka, dlatego wskazane jest używanie ich tylko do przechowywania online (na razie).

Szybkość dysków FC/SAS jest również dość wysoka, a cena umiarkowana. Dlatego takie dyski dobrze nadają się do „przechowywania w pobliżu linii”, gdzie przechowywane są dane, do których dostęp nie jest tak często, ale jednocześnie nie tak rzadki.

Wreszcie, dyski SATA/NL-SAS mają stosunkowo niską prędkość dostępu, ale mają dużą pojemność i są stosunkowo tanie. Dlatego zwykle odbywa się na nich przechowywanie w trybie offline dla danych o rzadkim użyciu.

Gdy tylko system zarządzania zauważy, że dostęp do danych w pamięci offline stał się częstszy, przenosi je do pamięci typu near-line, a wraz z dalszą aktywacją ich wykorzystania, do pamięci online na dyskach SSD.

Deduplikacja danych(deduplikacja, DEDUP). Jak sama nazwa wskazuje, deduplikacja eliminuje powtarzanie się danych na przestrzeni dyskowej powszechnie wykorzystywanej w redundancji danych. Chociaż system nie jest w stanie określić, które informacje są zbędne, może wykryć obecność zduplikowanych danych. Umożliwia to znaczne zmniejszenie wymagań dotyczących wydajności redundantnego systemu.

Zmniejszenie prędkości obracania się dysku (Disk spin-down) - to, co zwykle nazywa się „hibernacją” (zasypianiem) dysku. Jeśli dane na dysku nie są używane przez długi czas, to Spowalnianie dysku przełącza go w tryb hibernacji, aby zmniejszyć zużycie energii podczas bezużytecznego obracania dysku z normalną prędkością. Zwiększa to również żywotność dysku i zwiększa niezawodność systemu jako całości. Kiedy nadejdzie nowe żądanie danych na tym dysku, „budzi się” i jego prędkość obrotowa wzrasta do normy. Kompromisem za oszczędność energii i poprawę niezawodności jest pewne opóźnienie przy pierwszym dostępie do danych na dysku, ale cena ta jest dobrze uzasadniona.

„Migawka” stanu dysku (Snapshot). Migawka to w pełni użyteczna kopia określonego zestawu danych na dysku w momencie wykonania kopii (dlatego nazywana jest „migawką”). Taka kopia służy do częściowego przywrócenia stanu systemu z momentu kopiowania. Jednocześnie ciągłość systemu nie jest w żaden sposób naruszona, a wydajność nie ulega pogorszeniu.

Zdalna replikacja danych: Działa z wykorzystaniem technologii Mirroring. Może przechowywać wiele kopii danych w dwóch lub więcej lokalizacjach, aby zapobiec utracie danych w przypadku klęsk żywiołowych. Istnieją dwa rodzaje replikacji: synchroniczna i asynchroniczna, różnicę między nimi wyjaśniono na rysunku.

Ryż. 10. Zdalna replikacja danych (Remote Replication).

CDP (ciągła ochrona danych), znany również jako ciągła kopia zapasowa lub kopia zapasowa w czasie rzeczywistym, polega na automatycznym tworzeniu kopii zapasowej przy każdej zmianie danych. Jednocześnie w każdej chwili możliwe staje się odzyskanie danych w razie jakichkolwiek awarii, a jednocześnie dostępna jest aktualna kopia danych, a nie te, które były kilka minut czy godzin temu .

Programy do zarządzania i administrowania (oprogramowanie do zarządzania): obejmuje to różnorodne oprogramowanie do zarządzania i administrowania różne urządzenia: proste kreatory konfiguracji (kreatory konfiguracji), scentralizowane programy monitorujące: wyświetlanie topologii, monitorowanie w czasie rzeczywistym, mechanizmy raportowania awarii. Obejmuje również programy Business Guarantee: wielowymiarowe statystyki wydajności, raporty i zapytania dotyczące wydajności itp.

Odzyskiwanie po awarii (DR, Disaster Recovery). Jest to dość ważny element poważnych przemysłowych systemów magazynowania, chociaż jest dość drogi. Ale te koszty trzeba ponosić, aby nie stracić z dnia na dzień „tego, co nabywa się przez przepracowanie”. Omówione powyżej systemy ochrony danych (Snapshot, Remote Replication, CDP) są dobre tak długo, jak długo miejscowość, w którym znajduje się system magazynowania, nie wystąpiła żadna klęska żywiołowa: tsunami, powódź, trzęsienie ziemi, czy (pah-pah-pah) - wojna nuklearna. A każda wojna może również znacznie zepsuć życie ludziom, którzy zajmują się pożytecznymi rzeczami, na przykład przechowywaniem danych, a nie bieganiem z karabinem maszynowym w celu odrąbania terytoriów innym ludziom lub ukarania niektórych „niewiernych”. Replikacja zdalna oznacza, że ​​replikujący się system pamięci masowej znajduje się w tym samym mieście lub przynajmniej w jego pobliżu. Który na przykład nie oszczędza podczas tsunami.

Technologia Disaster Recovery zakłada, że ​​centrum redundancyjne służące do odtwarzania danych w przypadku klęsk żywiołowych znajduje się w znacznej odległości od głównego centrum danych i współpracuje z nim poprzez sieć transmisji danych nałożoną na sieć transportową, najczęściej optyczną. Technicznie niemożliwe będzie wykorzystanie np. technologii CDP przy takim rozmieszczeniu głównego i zapasowego data center.

W technologii DR stosowane są trzy podstawowe koncepcje:

  • BW (okno zapasowe)– „okno backupu”, czyli czas potrzebny systemowi backupu na skopiowanie odebranej ilości danych z działającego systemu.
  • RPO (cel punktu odzyskiwania)– „Akceptowalny punkt przywracania” — maksymalny okres czasu i odpowiadająca mu ilość danych, które użytkownik pamięci masowej może utracić.
  • RTO (docelowy czas odzyskiwania)– „dopuszczalny przestój”, maksymalny czas, przez jaki pamięć masowa może być niedostępna bez krytycznego wpływu na podstawową działalność.

Ryż. 11. Trzy podstawowe koncepcje technologii DR.

* * *

Ten esej nie jest kompletny i wyjaśnia jedynie podstawowe zasady systemu przechowywania, chociaż nie w całości. Różne źródła w Internecie zawierają wiele dokumentów, które opisują bardziej szczegółowo wszystkie przedstawione (a nie wymienione) punkty tutaj.

Kontynuacja tematu pamięci masowej o obiektowych systemach pamięci masowej -.

W tym artykule rozważymy, jakie rodzaje systemów przechowywania danych (SDS) istnieją obecnie, a także rozważę jeden z głównych elementów systemu przechowywania - interfejsy połączeń zewnętrznych (protokoły interakcji) i dyski przechowujące dane. Przeprowadzimy również ogólne porównanie ich możliwości. Jako przykłady odniesiemy się do linii pamięci masowej dostarczonej przez firmę DELL.

  • Przykłady modeli DAS
  • Przykłady modeli NAS
  • Przykłady modeli SAN
  • Rodzaje nośników danych i protokoły interakcji z systemami pamięci masowej Protokół Fibre Channel
  • protokół iSCSI
  • protokół SAS
  • Porównanie protokołów połączeń pamięci masowej

Istniejące typy systemów składowania

W przypadku oddzielnego komputera PC system pamięci masowej można rozumieć jako wewnętrzny dysk twardy lub system dyskowy (macierz RAID). Jeśli mówimy o systemach przechowywania danych różnych szczebli przedsiębiorstw, to tradycyjnie możemy wyróżnić trzy technologie organizacji przechowywania danych:

  • Pamięć masowa podłączana bezpośrednio (DAS);
  • Sieciowa pamięć masowa (NAS);
  • Sieć pamięci masowej (SAN).

Urządzenia DAS (Direct Attached Storage) - rozwiązanie, w którym urządzenie pamięci masowej jest podłączone bezpośrednio do serwera lub stacji roboczej, najczęściej poprzez interfejs wykorzystujący protokół SAS.

Urządzenia NAS (Network Attached Storage) to autonomiczny zintegrowany system dyskowy, a właściwie serwer NAS, z własnym wyspecjalizowanym systemem operacyjnym i zestawem przydatnych funkcji umożliwiających szybkie uruchomienie systemu i zapewnienie dostępu do plików. System łączy się ze zwykłym śieć komputerowa(LAN) i jest szybkim rozwiązaniem problemu braku wolnej przestrzeni dyskowej dostępnej dla użytkowników tej sieci.

Storage Area Network (SAN) to dedykowana sieć łącząca urządzenia pamięci masowej z serwerami aplikacji, zwykle oparta na protokole Fibre Channel lub protokole iSCSI.

Przyjrzyjmy się teraz bliżej każdemu z powyższych typów systemów pamięci masowej, ich pozytywnym i negatywnym stronom.

Architektura pamięci masowej DAS (Direct Attached Storage).

Do głównych zalet systemów DAS należy niski koszt (w porównaniu z innymi rozwiązaniami storage), łatwość wdrożenia i administrowania, a także duża szybkość wymiany danych pomiędzy systemem storage a serwerem. Właściwie to właśnie dzięki temu zyskały dużą popularność w segmencie małych biur, dostawców usług hostingowych i małych sieci korporacyjne. Jednocześnie systemy DAS mają swoje wady, do których można zaliczyć nieoptymalne wykorzystanie zasobów, ponieważ każdy system DAS wymaga połączenia z serwerem dedykowanym i umożliwia podłączenie maksymalnie 2 serwerów do półki dyskowej w określonej konfiguracji.

Rysunek 1: Architektura pamięci masowej podłączanej bezpośrednio

  • Dość niski koszt. W rzeczywistości ten system przechowywania to koszyk dysków z dyskami twardymi, umieszczony na zewnątrz serwera.
  • Łatwość wdrażania i administrowania.
  • Wysoka prędkość wymiany między macierzą dyskową a serwerem.
  • Niska niezawodność. Jeśli serwer, do którego jest podłączony ten magazyn, ulegnie awarii, dane nie będą już dostępne.
  • Niski stopień konsolidacji zasobów - cała pojemność jest dostępna dla jednego lub dwóch serwerów, co zmniejsza elastyczność dystrybucji danych pomiędzy serwerami. W rezultacie należy zakupić więcej wewnętrznych dysków twardych lub zainstalować dodatkowe półki dyskowe dla innych systemów serwerowych.
  • Niskie wykorzystanie zasobów.

Przykłady modeli DAS

Z ciekawych modeli urządzeń tego typu chciałbym zwrócić uwagę na serię DELL PowerVault MD. Początkowe modele półek dyskowych (JBOD) MD1000 i MD1120 pozwalają na tworzenie macierzy dyskowych zawierających do 144 dysków. Osiągnięto to dzięki modułowości architektury, do macierzy można podłączyć do 6 urządzeń, po trzy półki dyskowe na każdy kanał kontrolera RAID. Na przykład, jeśli użyjemy stojaka na 6 modułów DELL PowerVault MD1120, zaimplementujemy macierz o efektywnej pojemności danych 43,2 TB. Te półki dyskowe są połączone jednym lub dwoma kablami SAS z zewnętrznymi portami kontrolerów RAID zainstalowanych w serwerach Dell PowerEdge i są zarządzane przez konsolę zarządzania samego serwera.

Jeśli istnieje potrzeba stworzenia architektury o wysokiej odporności na awarie, na przykład do stworzenia awaryjnego klastra MS Exchange, serwera SQL, to model DELL PowerVault MD3000 jest odpowiedni do tych celów. Ten system ma już aktywną logikę wewnątrz półki dyskowej i jest całkowicie redundantny dzięki zastosowaniu dwóch wbudowanych kontrolerów RAID typu aktywny-aktywny z lustrzaną kopią danych buforowanych w pamięci podręcznej.

Oba kontrolery równolegle przetwarzają strumienie odczytu i zapisu danych, a w przypadku awarii jednego z nich, drugi „przechwytuje” dane z sąsiedniego kontrolera. Jednocześnie połączenie z niskopoziomowym kontrolerem SAS wewnątrz 2 serwerów (klaster) można nawiązać za pośrednictwem kilku interfejsów (MPIO), co zapewnia redundancję i równoważenie obciążenia w środowiskach Microsoft. PowerVault MD3000 można wyposażyć w 2 dodatkowe obudowy dysków MD1000 w celu zwiększenia przestrzeni dyskowej.

Architektura pamięci masowej NAS (Network Attached Storage).

Technologia NAS (podsystemy pamięci sieciowej, Network Attached Storage) rozwija się jako alternatywa dla uniwersalnych serwerów realizujących wiele funkcji (drukowanie, aplikacje, serwer faksów, E-mail i tak dalej.). W przeciwieństwie do nich urządzenia NAS pełnią tylko jedną funkcję - serwer plików. I starają się to zrobić jak najlepiej, łatwiej i szybciej.

NAS łączy się z siecią LAN i uzyskuje dostęp do danych dla nieograniczonej liczby heterogenicznych klientów (klientów z różnymi systemami operacyjnymi) lub innych serwerów. Obecnie prawie wszystkie urządzenia NAS przeznaczone są do pracy w sieciach Ethernet (Fast Ethernet, Gigabit Ethernet) opartych na protokołach TCP/IP. Dostęp do urządzeń NAS uzyskuje się za pomocą specjalnych protokołów dostępu do plików. Najpopularniejsze protokoły dostęp do plików to protokoły CIFS, NFS i DAFS. Wewnątrz takich serwerów znajdują się wyspecjalizowane systemy operacyjne, takie jak MS Windows Storage Server.

Rysunek 2: Architektura sieciowej pamięci masowej

  • Taniość i dostępność jego zasobów nie tylko dla poszczególnych serwerów, ale także dla dowolnych komputerów w organizacji.
  • Łatwość udostępniania zasobów.
  • Łatwość wdrażania i administrowania
  • Wszechstronność dla klientów (jeden serwer może obsługiwać klientów MS, Novell, Mac, Unix)
  • Dostęp do informacji za pośrednictwem protokołów „sieciowego systemu plików” jest często wolniejszy niż dostęp do nich z poziomu dysku lokalnego.
  • Większość tanich serwerów NAS nie pozwala na szybką i elastyczną metodę dostępu do danych na poziomie bloków charakterystycznym dla systemów SAN, a nie na poziomie plików.

Przykłady modeli NAS

Obecnie klasyczne rozwiązania NAS, takie jak PowerVault NF100/500/600. Są to systemy oparte na masywnych 1 i 2 procesorowych serwerach firmy Dell, zoptymalizowanych pod kątem szybkiego wdrażania usług NAS. Pozwalają tworzyć nośnik danych do 10 TB (PowerVault NF600) przy użyciu dysków SATA lub SAS i połączenia dany serwer do sieci LAN. Dostępne są również zintegrowane rozwiązania o wyższej wydajności, takie jak PowerVault NX1950, który mieści 15 dysków i można go rozbudować do 45 za pomocą dodatkowych obudów dysków MD1000.

Poważną zaletą NX1950 jest możliwość pracy nie tylko z plikami, ale także z blokami danych na poziomie protokołu iSCSI. Ponadto odmiana NX1950 może działać jako „brama”, która umożliwia organizowanie dostępu do plików w systemach pamięci masowej opartych na iSCSI (metodą dostępu blokowego), na przykład MD3000i lub Dell EqualLogic PS5x00.

Architektura pamięci masowej SAN (Storage Area Network).

Storage Area Network (SAN) to specjalna dedykowana sieć łącząca urządzenia pamięci masowej z serwerami aplikacyjnymi, zwykle zbudowana w oparciu o protokół Fibre Channel lub zyskujący na popularności protokół iSCSI. W przeciwieństwie do NAS, SAN nie ma pojęcia o plikach: operacje na plikach są wykonywane na serwerach podłączonych do SAN. Sieć SAN działa na blokach jak duży dysk twardy. Idealnym rezultatem sieci SAN jest możliwość dostępu dowolnego serwera działającego pod dowolnym systemem operacyjnym do dowolnej części pojemności dyskowej znajdującej się w sieci SAN. Elementami końcowymi SAN są serwery aplikacyjne i systemy pamięci masowej (macierze dyskowe, biblioteki taśmowe itp.). A między nimi, jak w normalnej sieci, znajdują się adaptery, przełączniki, mosty, koncentratory. iSCSI jest protokołem bardziej „przyjaznym”, ponieważ opiera się na wykorzystaniu standardowej infrastruktury Ethernet – kart sieciowych, przełączników, kabli. Co więcej, to systemy pamięci masowej oparte na iSCSI są najbardziej popularne wśród serwerów zwirtualizowanych, ze względu na łatwość konfiguracji protokołu.

Rysunek 3: Architektura sieci pamięci masowej

  • Wysoka niezawodność dostępu do danych znajdujących się na systemy zewnętrzne ach przechowywanie. Niezależność topologii SAN od wykorzystywanych systemów pamięci masowej i serwerów.
  • Scentralizowane przechowywanie danych (niezawodność, bezpieczeństwo).
  • Wygodne, scentralizowane zarządzanie przełączaniem i danymi.
  • Przenieś duży ruch we/wy do oddzielnej sieci, odciążając sieć LAN.
  • Wysoka wydajność i niskie opóźnienia.
  • Skalowalność i elastyczność projektu logicznego SAN
  • Możliwość organizowania kopii zapasowych, zdalnych systemów przechowywania oraz zdalnego systemu do tworzenia kopii zapasowych i odzyskiwania danych.
  • Możliwość budowy odpornych na uszkodzenia rozwiązań klastrowych bez dodatkowych kosztów w oparciu o istniejącą sieć SAN.
  • wyższy koszt
  • Trudność w konfiguracji systemów FC
  • Potrzeba certyfikacji sieci FC (iSCSI jest prostszym protokołem)
  • Bardziej rygorystyczne wymagania dotyczące zgodności i walidacji komponentów.
  • Pojawienie się ze względu na wysoki koszt „wysp” DAS w sieciach opartych na protokole FC, gdy pojedyncze serwery z wewnętrzną przestrzenią dyskową, serwery NAS lub systemy DAS pojawiają się w przedsiębiorstwach z powodu braku budżetu.

Przykłady modeli SAN

Macierze pamięci masowej SAN są teraz dostępne do wyboru, począwszy od modeli dla małych i średnich firm, takich jak seria DELL AX, które umożliwiają przechowywanie do 60 TB, po duże przedsiębiorstwa z serii DELL/EMC CX4, które umożliwiają tworzenie pojemności do 950 TB. Istnieje niedrogie rozwiązanie oparte na iSCSI, jest to PowerVault MD3000i - rozwiązanie pozwala na podłączenie do 16-32 serwerów, można zainstalować do 15 dysków w jednym urządzeniu, a także rozbudować system o dwie półki MD1000, tworząc 45TB szyk.

Na szczególną uwagę zasługuje system Dell EqualLogic oparty na protokole iSCSI. Jest pozycjonowany jako pamięć masowa na skalę korporacyjną i jest porównywalny cenowo z systemami Dell | EMC CX4 z modułową architekturą portów obsługującą zarówno protokół FC, jak i protokół iSCSI. System EqualLogic działa w trybie peer-to-peer, co oznacza, że ​​każda obudowa dysku ma aktywne kontrolery RAID. Podczas podłączania tych tablic do pojedynczy system wydajność puli dyskowej rośnie płynnie wraz ze wzrostem dostępnego wolumenu pamięci masowej. System pozwala tworzyć macierze o pojemności ponad 500TB, konfiguruje się go w niecałą godzinę i nie wymaga specjalistycznej wiedzy administratorów.

Model licencjonowania również różni się od pozostałych i zawiera już w cenie początkowej wszystkie możliwe opcje tworzenia migawek, narzędzia do replikacji i integracji z różnymi systemami operacyjnymi i aplikacjami. System ten uznawany jest za jeden z najszybszych systemów w testach dla MS Exchange (ESRP).

Rodzaje nośników pamięci i protokół interakcji z systemami pamięci masowej

Decydując się na typ systemu pamięci masowej, który najlepiej pasuje do rozwiązania określonych zadań, należy przejść do wyboru protokołu interakcji z systemem pamięci masowej i wybrać dyski, które będą używane w systemie pamięci masowej.

Obecnie do przechowywania danych w macierzach dyskowych wykorzystywane są dyski SATA i SAS. Wybór dysków do przechowywania zależy od konkretnych zadań. Warto zwrócić uwagę na kilka faktów.

Dyski SATAII:

  • Dostępne rozmiary pojedynczych dysków do 1 TB
  • Prędkość obrotowa 5400-7200 obr./min
  • Szybkość we/wy do 2,4 Gb/s
  • MTBF jest o połowę mniejszy niż w przypadku dysków SAS.
  • Mniej niezawodne niż dyski SAS.
  • Około 1,5 razy tańsze niż dyski SAS.
  • Dostępne rozmiary pojedynczych dysków do 450 GB
  • Prędkość obrotowa 7200 (NearLine), 10000 i 15000 obr./min
  • Szybkość we/wy do 3,0 Gb/s
  • MTBF jest dwa razy większy niż w przypadku dysków SATA II.
  • Bardziej niezawodne dyski.

Ważny! W ubiegłym roku rozpoczęła się przemysłowa produkcja dysków SAS o obniżonej prędkości obrotowej - 7200 obr./min (Near-line SAS Drive). Umożliwiło to zwiększenie ilości danych przechowywanych na jednym dysku do 1 TB oraz zmniejszenie poboru mocy dysków z szybkim interfejsem. Pomimo tego, że koszt takich dysków jest porównywalny z kosztem dysków SATA II, a niezawodność i szybkość I/O pozostały na poziomie dysków SAS.

Dlatego w tej chwili warto naprawdę poważnie pomyśleć o protokołach przechowywania danych, które zamierzasz wykorzystać w korporacyjnym systemie przechowywania.

Do niedawna głównymi protokołami interakcji z systemami pamięci masowej były FibreChannel i SCSI. Teraz protokoły iSCSI i SAS zastąpiły SCSI, rozszerzając jego funkcjonalność. Przyjrzyjmy się zaletom i wadom każdego z protokołów oraz odpowiadającym im interfejsom do łączenia się z systemami pamięci masowej poniżej.

Protokół Fibre Channel

W praktyce nowoczesny Fibre Channel (FC) ma prędkości 2 Gb/s (Fibre Channel 2 Gb), 4 Gb/s (Fibre Channel 4 Gb) w trybie pełnego dupleksu lub 8 Gb/s, czyli prędkość ta jest zapewniana jednocześnie w obu kierunkach. Przy takich prędkościach odległości połączeń są praktycznie nieograniczone - od standardowych 300 metrów na najbardziej „zwykłym” sprzęcie do kilkuset, a nawet tysięcy kilometrów przy użyciu specjalistycznego sprzętu. Główną zaletą protokołu FC jest możliwość łączenia wielu urządzeń pamięci masowej i hostów (serwerów) w jedną sieć pamięci masowej (SAN). Jednocześnie nie ma problemu z dystrybucją urządzeń na duże odległości, możliwość agregacji łączy, możliwość redundantnych ścieżek dostępu, „hot plugging” sprzętu oraz większa odporność na zakłócenia. Ale z drugiej strony mamy wysokie koszty i pracochłonność instalacji i konserwacji macierzy dyskowych wykorzystujących FC.

Ważny! Należy rozdzielić dwa terminy: Fibre Channel Protocol i Fibre Channel Fibre Interface. Protokół Fibre Channel może pracować na różnych interfejsach - zarówno na łączu światłowodowym o różnej modulacji, jak i na łączach miedzianych.

  • Elastyczna skalowalność pamięci masowej;
  • Pozwala na tworzenie pamięci masowej na znacznych odległościach (ale mniejszych niż w przypadku protokołu iSCSI; gdzie teoretycznie cała globalna sieć IP może pełnić rolę nośnika.
  • Świetne opcje redundancji.
  • Wysoki koszt rozwiązania;
  • Jeszcze wyższy koszt przy organizacji sieci FC na setki lub tysiące kilometrów
  • Duża pracochłonność podczas wdrażania i utrzymania.

Ważny! Oprócz pojawienia się protokołu FC8 Gb/s spodziewane jest pojawienie się protokołu FCoE (Fiber Channel over Ethernet), który pozwoli na wykorzystanie standardowych sieci IP do organizacji wymiany pakietów FC.

protokół iSCSI

Protokół iSCSI (SCSI Packet-to-IP Encapsulation) umożliwia użytkownikom tworzenie sieci SAN opartych na protokole IP przy użyciu infrastruktury Ethernet i portów RJ45. W ten sposób protokół iSCSI zapewnia sposób na ominięcie ograniczeń bezpośrednio podłączonych magazynów danych, w tym niemożność współdzielenia zasobów między serwerami i niemożność zwiększenia pojemności bez wyłączania aplikacji. Szybkość transferu jest obecnie ograniczona do 1 Gb/s (Gigabit Ethernet), ale jest to prędkość wystarczająca dla większości aplikacji biznesowych o skali średnich przedsiębiorstw, co potwierdzają liczne testy. Co ciekawe, ważna jest nie tyle szybkość przesyłania danych na jednym kanale, co algorytmy kontrolerów RAID i możliwość agregacji macierzy w jedną pulę, jak to ma miejsce w przypadku DELL EqualLogic, gdy trzy 1 Porty GB są używane w każdej macierzy, a macierze mają równoważenie obciążenia w jednej grupie.

Należy zauważyć, że sieci SAN iSCSI zapewniają te same korzyści, co sieci SAN Fibre Channel, upraszczając jednocześnie wdrażanie i zarządzanie siecią oraz znacznie obniżając koszt tego systemu pamięci masowej.

  • Duża dostępność;
  • Skalowalność;
  • Łatwość administrowania dzięki zastosowaniu technologii Ethernet;
  • Niższy koszt organizacji SAN na protokole iSCSI niż na FC.
  • Łatwość integracji ze środowiskami wirtualizacji
  • Istnieją pewne ograniczenia dotyczące używania pamięci masowej iSCSI z niektórymi aplikacjami OLAP i OLTP, z systemami czasu rzeczywistego oraz podczas pracy z dużą liczbą strumieni wideo HD
  • Pamięć masowa wysokiego poziomu oparta na iSCSI, a także pamięć masowa oparta na FC wymaga użycia szybkich i drogich przełączników Ethernet
  • Zaleca się stosowanie dedykowanych przełączników Ethernet lub zorganizowanie sieci VLAN w celu odseparowania strumieni danych. Projektowanie sieci jest nie mniej ważną częścią projektu niż w przypadku rozwoju sieci FC.

Ważny! W niedalekiej przyszłości producenci obiecują wprowadzenie do masowej produkcji SAN opartych na protokole iSCSI z obsługą szybkości przesyłania danych do 10 Gb/s. Przygotowywana jest również ostateczna wersja protokołu DCE (Data Center Ethernet), masowe pojawienie się urządzeń obsługujących protokół DCE spodziewane jest do 2011 roku.

Z punktu widzenia zastosowanych interfejsów protokół iSCSI wykorzystuje interfejsy Ethernet 1 Gbit/C i mogą to być zarówno miedziane jak i interfejsy światłowodowe podczas pracy na duże odległości.

protokół SAS

Protokół i interfejs SAS o tej samej nazwie mają zastąpić równoległy SCSI i osiągnąć wyższą przepustowość niż SCSI. Chociaż SAS używa interfejsu szeregowego w przeciwieństwie do interfejsu równoległego używanego przez tradycyjny SCSI, polecenia SCSI są nadal używane do sterowania urządzeniami SAS. SAS umożliwia fizyczną łączność między macierzą danych a wieloma serwerami na krótkich dystansach.

  • Akceptowalna cena;
  • Łatwość konsolidacji pamięci masowych – choć pamięć masowa oparta na SAS nie może łączyć się z tak wieloma hostami (serwerami), jak konfiguracje SAN korzystające z protokołów FC lub iSCSI, w przypadku korzystania z protokołu SAS nie ma trudności z dodatkowym sprzętem do zorganizowania współdzielonej pamięci masowej dla kilku serwerów.
  • Protokół SAS pozwala na większą przepustowość dzięki 4 połączeniom łącza w ramach jednego interfejsu. Każdy kanał zapewnia 3 Gb/s, co pozwala na osiągnięcie szybkości przesyłania danych na poziomie 12 Gb/s (obecnie najwyższa szybkość przesyłania danych dla pamięci masowej).
  • Ograniczony zasięg - długość kabla nie może przekraczać 8 metrów. Zatem pamięci masowe połączone protokołem SAS będą optymalne tylko wtedy, gdy serwery i macierze będą zlokalizowane w tej samej szafie lub w tej samej serwerowni;
  • Liczba podłączonych hostów (serwerów) jest zwykle ograniczona do kilku węzłów.

Ważny! W 2009 roku ma pojawić się technologia SAS z szybkością transmisji danych w jednym kanale - 6 Gb/s, co znacząco podniesie atrakcyjność korzystania z tego protokołu.

Porównanie protokołów połączeń pamięci masowej

Poniżej jest Stół obrotowy porównanie możliwości różnych protokołów do interakcji z systemami pamięci masowej.

Parametr

Protokoły połączenia pamięci masowej

Architektura Polecenia SCSI są umieszczane w pakiecie IP i przesyłane przez Ethernet, transmisję szeregową Szeregowa transmisja poleceń SCSI Przełączany
Odległość między macierzą dyskową a węzłem (serwerem lub przełącznikiem) Ograniczona jedynie odległością sieci IP. Nie więcej niż 8 metrów między urządzeniami. 50 000 metrów bez specjalistycznych repeaterów
Skalowalność Miliony urządzeń - podczas pracy na protokole IPv6. 32 urządzenia 256 urządzeń
16 milionów urządzeń w architekturze FC-SW (przełączniki światłowodowe).
Wydajność 1 Gb/s (planowane do 10 Gb/s) 3 Gb/s przy wykorzystaniu 4 portów, do 12 Gb/s (w 2009 roku do 6 Gb/s na jednym porcie) Do 8 Gb/s
Poziom inwestycji (koszty wdrożenia) Drugorzędny — używany jest Ethernet Przeciętny Istotne

Tym samym na pierwszy rzut oka prezentowane rozwiązania są dość wyraźnie podzielone według wymagań klientów. Jednak w praktyce wszystko nie jest takie jednoznaczne, dochodzą dodatkowe czynniki w postaci ograniczeń budżetowych, dynamiki rozwoju organizacji (i dynamiki wzrostu wolumenu przechowywanych informacji), specyfiki branżowej itp.

Jak wiadomo, w ostatnich latach nastąpił intensywny wzrost ilości gromadzonych informacji i danych. Badanie przeprowadzone przez IDC Digital Universe wykazało, że światowa zawartość cyfrowa może wzrosnąć z 4,4 ZB do 44 ZB do 2020 roku. Według ekspertów ilość informacji cyfrowych podwaja się co dwa lata. Dlatego dzisiaj problem nie tylko przetwarzania informacji, ale także ich przechowywania jest niezwykle istotny.

Aby rozwiązać ten problem, obecnie bardzo aktywnie rozwija się taki kierunek, jak rozwój systemów pamięci masowej (sieci / systemów przechowywania danych). Spróbujmy dowiedzieć się, co dokładnie współczesna branża IT rozumie pod pojęciem „system przechowywania danych”.

Storage to zintegrowane rozwiązanie programowe i sprzętowe, którego celem jest zorganizowanie niezawodnego i wysokiej jakości przechowywania różnych zasobów informacyjnych, a także zapewnienie nieprzerwanego dostępu do tych zasobów.

Stworzenie takiego kompleksu powinno pomóc w rozwiązywaniu różnorodnych zadań stojących przed współczesnym biznesem w procesie budowania integralnego systemu informacyjnego.

Główne elementy systemu przechowywania:

Urządzenia pamięci masowej (biblioteka taśmowa, wewnętrzna lub zewnętrzna macierz dyskowa);

System monitorowania i kontroli;

Podsystem tworzenia kopii zapasowych/archiwizacji danych;

Oprogramowanie do zarządzania pamięcią masową;

Infrastruktura dostępu do wszystkich urządzeń pamięci masowej.

Główne cele

Rozważ najbardziej typowe zadania:

decentralizacja informacji. Niektóre organizacje mają rozwiniętą strukturę branżową. Każda pojedyncza jednostka takiej organizacji powinna mieć swobodny dostęp do wszystkich informacji potrzebnych jej do pracy. Nowoczesne systemy przechowywania wchodzą w interakcję z użytkownikami, którzy znajdują się w dużej odległości od centrum, w którym przetwarzane są dane, dlatego są w stanie rozwiązać ten problem.

Niemożność przewidzenia ostatecznych wymaganych zasobów. Podczas planowania projektu określ dokładnie, z iloma informacjami będziesz musiał pracować w trakcie operacja systemowa, jest niezwykle trudne. Ponadto ilość gromadzonych danych stale rośnie. Większość nowoczesnych systemów pamięci masowych obsługuje skalowalność (możliwość zwiększenia jej wydajności po dodaniu zasobów), dzięki czemu moc systemu można zwiększać proporcjonalnie do wzrostu obciążeń (upgrade).

Bezpieczeństwo wszystkich przechowywanych informacji. Kontrolowanie i ograniczanie dostępu do zasobów informacyjnych przedsiębiorstwa może być dość trudne. Nieumiejętne działania personelu serwisu i użytkowników, celowe próby sabotażu – wszystko to może spowodować znaczne szkody w przechowywanych danych. Nowoczesne systemy pamięci masowej wykorzystują różne schematy tolerancji błędów, które pozwalają im wytrzymać zarówno celowy sabotaż, jak i nieudolne działania niewykwalifikowanych pracowników, utrzymując w ten sposób wydajność systemu.

Złożoność zarządzania rozproszonymi przepływami informacji - każde działanie mające na celu zmianę rozproszonych danych informacyjnych w jednym z oddziałów nieuchronnie stwarza szereg problemów - od złożoności synchronizacji różnych baz danych i wersji plików deweloperskich po niepotrzebne powielanie informacji. Oprogramowanie do zarządzania dostarczane z systemem pamięci masowej pomoże optymalnie uprościć i skutecznie zoptymalizować pracę z przechowywanymi informacjami.

Wysokie koszty. Według badania przeprowadzonego przez IDC Perspectives koszty przechowywania danych stanowią około dwudziestu trzech procent wszystkich wydatków na IT. Koszty te obejmują koszt oprogramowania i części sprzętowych kompleksu, płatności dla personelu obsługi technicznej itp. Zastosowanie systemów pamięci masowej pozwala zaoszczędzić na administracji systemem, a także zmniejsza koszty personelu.


Główne typy systemów pamięci masowej

Wszystkie systemy przechowywania danych dzielą się na 2 typy: systemy przechowywania na taśmach i dyskach. Każdy z dwóch powyższych gatunków dzieli się z kolei na kilka podgatunków.

Przechowywanie na dysku

Takie systemy przechowywania służą do tworzenia pośrednich kopii zapasowych, a także pracy operacyjnej z różnymi danymi.

Dyskowe systemy pamięci masowej dzielą się na następujące podgatunki:

Urządzenia do kopie zapasowe(różne biblioteki dyskowe);

Urządzenia do danych roboczych (sprzęt charakteryzujący się wysoką wydajnością);

Urządzenia służące do długoterminowego przechowywania archiwów.


Przechowywanie taśm

Służy do tworzenia archiwów i kopii zapasowych.

Systemy pamięci taśmowych dzielą się na następujące podgatunki:

Biblioteki taśmowe (dwa lub więcej napędów, wiele gniazd na taśmy);

Autoloadery (1 napęd, wiele gniazd dedykowanych na taśmy);

Oddzielne napędy.

Główne interfejsy połączeń

Powyżej zbadaliśmy główne typy systemów, a teraz przyjrzyjmy się bliżej strukturze samych systemów pamięci masowej. Nowoczesne systemy pamięci masowej są klasyfikowane zgodnie z typem interfejsów hosta, z których korzystają. Rozważ poniżej 2 najpopularniejsze interfejsy połączeń zewnętrznych — SCSI i FibreChannel. Interfejs SCSI przypomina szeroko stosowane IDE i jest interfejsem równoległym, który umożliwia umieszczenie do szesnastu urządzeń na jednej magistrali (w przypadku IDE, jak wiadomo, dwa urządzenia na kanał). Maksymalna prędkość protokołu SCSI wynosi obecnie 320 megabajtów na sekundę (wersja, która zapewni prędkość 640 megabajtów na sekundę jest obecnie w fazie rozwoju). Wady SCSI są następujące - niewygodne, nieodporne na zakłócenia, zbyt grube kable, których maksymalna długość nie przekracza dwudziestu pięciu metrów. Sam protokół SCSI również nakłada pewne ograniczenia - z reguły jest to 1 inicjator na magistrali plus urządzenia podrzędne (streamery, dyski itp.).

Interfejs FibreChannel jest rzadziej używany niż interfejs SCSI, ponieważ sprzęt używany do tego interfejsu jest droższy. Ponadto FibreChannel służy do wdrażania dużych sieci pamięci masowych SAN, dlatego jest używany tylko w dużych firmach. Odległości mogą być praktycznie dowolne – od standardowych trzystu metrów na typowym sprzęcie do dwóch tysięcy kilometrów na potężne przełączniki („dyrektorki”). Główną zaletą interfejsu FibreChannel jest możliwość łączenia wielu urządzeń pamięci masowej i hostów (serwerów) we wspólną sieć pamięci masowej SAN. Mniej istotnymi zaletami są: większe odległości niż przy SCSI, możliwość agregacji łączy i redundantnych ścieżek dostępu, możliwość podłączania sprzętu „na gorąco”, wyższa odporność na zakłócenia. Stosowane są dwużyłowe kable optyczne jedno i wielomodowe (ze złączami typu SC lub LC) oraz SFP - nadajniki optyczne wykonane na bazie emiterów laserowych lub LED (maksymalna odległość między zastosowanymi urządzeniami, a także prędkość transmisji zależy od tych elementów).

Opcje topologii pamięci masowej

Tradycyjnie pamięć masowa służy do łączenia serwerów z DAS - systemem przechowywania danych. Oprócz DAS istnieją również NAS – urządzenia pamięci masowej, które łączą się z siecią, a także SAN – komponenty sieci pamięci masowej. Systemy SAN i NAS powstały jako alternatywa dla architektury DAS. Ponadto każde z powyższych rozwiązań zostało opracowane jako odpowiedź na stale rosnące wymagania wobec nowoczesnych systemów składowania i opierało się na wykorzystaniu dostępnych wówczas technologii.

Architektury pierwszych sieciowych systemów pamięci masowej zostały opracowane w latach 90. XX wieku w celu wyeliminowania najbardziej namacalnych wad systemów DAS. Rozwiązania sieciowe pamięci masowych zostały zaprojektowane tak, aby osiągnąć powyższe cele: obniżyć koszty i złożoność zarządzania danymi, zmniejszyć ruch w sieci LAN, poprawić ogólną wydajność i dostępność danych. Jednocześnie architektury SAN i NAS rozwiązują różne aspekty tego samego wspólnego problemu. W rezultacie zaczęły istnieć jednocześnie 2 architektury sieciowe. Każdy z nich ma swoją własną funkcjonalność i zalety.

DAS


(D bezpośredni A przyczepiony S zezłościć się) to rozwiązanie architektoniczne stosowane w przypadkach, gdy urządzenie służące do przechowywania danych cyfrowych jest połączone protokołem SAS poprzez interfejs bezpośrednio z serwerem lub stacją roboczą.


Główne zalety systemów DAS to: niski koszt w porównaniu z innymi rozwiązaniami storage, łatwość wdrożenia i administrowania, szybka wymiana danych pomiędzy serwerem a systemem storage.

Powyższe zalety sprawiły, że systemy DAS stały się niezwykle popularne w segmencie małych sieci korporacyjnych, dostawców usług hostingowych oraz małych biur. Ale jednocześnie systemy DAS mają też swoje wady, na przykład nieoptymalne wykorzystanie zasobów, tłumaczone tym, że każdy system DAS wymaga podłączenia dedykowanego serwera, ponadto każdy taki system pozwala na podłączenie nie więcej niż dwa serwery do półki dyskowej w określonej konfiguracji.

Zalety:

Przystępny koszt. Storage to zasadniczo kosz dyskowy zainstalowany poza serwerem, wyposażony w dyski twarde.

Zapewnienie szybkiej wymiany między serwerem a macierzą dyskową.


Wady:

Niewystarczająca niezawodność - w przypadku awarii lub problemów z siecią serwery nie są już dostępne dla wielu użytkowników.

Duże opóźnienia wynikające z faktu, że wszystkie żądania są przetwarzane przez jeden serwer.

Brak możliwości zarządzania – posiadanie całej pojemności dostępnej dla pojedynczego serwera zmniejsza elastyczność dystrybucji danych.

Niskie wykorzystanie zasobów — ilość wymaganych danych jest trudna do przewidzenia: niektóre urządzenia DAS w organizacji mogą mieć nadmiar pojemności, podczas gdy innym może jej brakować, ponieważ ponowne przydzielenie pojemności jest zwykle zbyt pracochłonne lub w ogóle niemożliwe.

NAS


(N praca A przyczepiony S zezłościć się) to zintegrowany autonomiczny system dyskowy, który obejmuje serwer NAS z własnym wyspecjalizowanym systemem operacyjnym oraz zestawem przyjaznych dla użytkownika funkcji zapewniających szybki start systemu, a także dostęp do dowolnych plików. System jest podłączony do zwykłej sieci komputerowej, dzięki czemu użytkownicy tej sieci mogą rozwiązać problem braku wolnego miejsca na dysku.

NAS to pamięć masowa, która łączy się z siecią jak zwykłe urządzenie sieciowe, zapewniając dostęp do plików z danymi cyfrowymi. Każde urządzenie NAS jest połączeniem systemu pamięci masowej i serwera, do którego ten system jest podłączony. Najprostszą wersją urządzenia NAS jest serwer sieciowy udostępniający udziały plików.

Urządzenia NAS składają się z jednostki głównej, która przetwarza dane, a także łączy łańcuch dysków w jedną sieć. NAS zapewniają wykorzystanie systemów pamięci masowej w sieciach Ethernet. Udostępnianie dostępu do plików zorganizowane jest w nich z wykorzystaniem protokołu TCP/IP. Urządzenia te umożliwiają współdzielenie plików nawet wśród klientów z różnymi systemami. system operacyjny. W przeciwieństwie do architektury DAS, w systemach NAS serwerów nie można wyłączać w celu zwiększenia ogólnej pojemności; Możesz dodać dyski do struktury NAS, po prostu podłączając urządzenie do sieci.

Technologia NAS rozwija się dzisiaj jako alternatywa dla uniwersalnych serwerów, które realizują ogromną liczbę różnych funkcji (poczta e-mail, serwer faksów, aplikacje, drukowanie itp.). Urządzenia NAS w przeciwieństwie do serwerów uniwersalnych pełnią tylko jedną funkcję - serwera plików, starając się robić to jak najszybciej, prosto i efektywnie.

Podłączenie serwera NAS do sieci LAN zapewnia dostęp do informacji cyfrowych nieograniczonej liczbie heterogenicznych klientów (tj. klientów z różnymi systemami operacyjnymi) lub innych serwerów. Obecnie prawie wszystkie urządzenia NAS są wykorzystywane w sieciach Ethernet opartych na protokołach TCP/IP. Dostęp do urządzeń NAS realizowany jest za pomocą specjalnych protokołów dostępowych. Najpopularniejsze protokoły dostępu do plików to DAFS, NFS, CIFS. Wewnątrz takich serwerów instalowane są wyspecjalizowane systemy operacyjne.

Urządzenie NAS może wyglądać jak proste „pudełko” wyposażone w jeden port Ethernet i kilka dysków twardych lub może to być ogromny system wyposażony w kilka wyspecjalizowanych serwerów, ogromną liczbę dysków i zewnętrznych portów Ethernet. Czasami urządzenia NAS są częścią sieci SAN. W tym przypadku nie posiadają własnych dysków, a jedynie zapewniają dostęp do danych, które znajdują się na urządzeniach blokowych. W tym przypadku NAS działa jak potężny wyspecjalizowany serwer, a SAN działa jako urządzenie pamięci masowej. W tym przypadku pojedyncza topologia DAS jest tworzona z komponentów SAN i NAS.

Zalety

Niski koszt, dostępność zasobów dla poszczególnych serwerów, jak również dla dowolnego komputera w organizacji.

Wszechstronność (jeden serwer może obsługiwać klientów Unix, Novell, MS, Mac).

Łatwość wdrażania i administrowania.

Łatwość udostępniania zasobów.


Wady

Dostęp do informacji za pośrednictwem protokołów sieciowego systemu plików jest często wolniejszy niż dostęp do dysku lokalnego.

Większość przystępnych cenowo serwerów NAS nie jest w stanie zapewnić elastycznej, szybkiej metody dostępu, którą zapewniają nowoczesne systemy SAN (na poziomie bloków, a nie plików).

SAN


(S zezłościć się A Rea N praca)- to rozwiązanie architektoniczne umożliwia łączenie się z serwerami urządzenia zewnętrzne przechowywanie danych (biblioteki taśmowe, macierze dyskowe, napędy optyczne itp.). Dzięki temu połączeniu urządzenia zewnętrzne są rozpoznawane przez system operacyjny jako lokalne. Korzystanie z sieci SAN zmniejsza całkowity koszt utrzymania systemu pamięci masowej i umożliwia nowoczesnym organizacjom zorganizowanie niezawodnego przechowywania informacji.

Najprostszą opcją SAN są systemy pamięci masowej, serwery i przełączniki połączone optycznymi kanałami komunikacyjnymi. Oprócz dyskowych systemów składowania, do sieci SAN można podłączyć biblioteki dyskowe, streamery (biblioteki taśmowe), urządzenia służące do przechowywania informacji na dyskach optycznych itp.

Zalety

Niezawodność dostępu do tych danych, które znajdują się w systemach zewnętrznych.

Niezależność topologii SAN od używanych serwerów i systemów przechowywania danych.

Bezpieczeństwo i niezawodność scentralizowanego przechowywania danych.

Wygodne scentralizowane zarządzanie danymi i przełączanie.

Możliwość przeniesienia ruchu I/O do osobnej sieci, zapewniając odciążenie sieci LAN.

Niskie opóźnienia i wysoka wydajność.

Elastyczność i skalowalność struktury logicznej SAN.

Rzeczywisty nieograniczony rozmiar geograficzny sieci SAN.

Możliwość szybkiej dystrybucji zasobów między serwerami.

Prostota schematu tworzenia kopii zapasowych, zapewniona dzięki temu, że wszystkie dane znajdują się w jednym miejscu.

Możliwość tworzenia rozwiązań klastrów przełączania awaryjnego w oparciu o istniejącą sieć SAN bez dodatkowych kosztów.

Dostępność dodatkowych usług i funkcji, takich jak zdalna replikacja, migawki itp.

Sieć SAN o wysokim poziomie bezpieczeństwa/


Jedyną wadą takich rozwiązań jest ich wysoki koszt. Ogólnie rzecz biorąc, krajowy rynek systemów przechowywania danych pozostaje w tyle za rynkiem rozwiniętych krajów zachodnich, który charakteryzuje się powszechnym wykorzystaniem systemów przechowywania. Wysoki koszt i brak szybkich kanałów komunikacyjnych to główne przyczyny utrudniające rozwój rosyjskiego rynku magazynowania.

NALOT

Mówiąc o systemach przechowywania danych, zdecydowanie należy wziąć pod uwagę jedną z głównych technologii leżących u podstaw działania takich systemów i szeroko stosowanych we współczesnej branży IT. Mamy na myśli macierze RAID.

Macierz RAID składa się z kilku dysków kontrolowanych przez kontroler i połączonych kanałami szybkiego przesyłania danych. Takie dyski (urządzenia pamięci) postrzegane są przez system zewnętrzny jako całość. Rodzaj zastosowanej macierzy wpływa bezpośrednio na stopień wydajności i odporność na uszkodzenia. Macierze RAID służą do zwiększenia niezawodności przechowywania danych, a także do zwiększenia szybkości zapisu/odczytu.

Istnieje kilka poziomów RAID używanych podczas tworzenia sieci SAN. Najczęściej stosowane poziomy to:

1. Jest to macierz dyskowa o zwiększonej wydajności, bez odporności na uszkodzenia, z stripingiem.
Informacje są podzielone na oddzielne bloki danych. Jest nagrywany jednocześnie na dwóch lub więcej dyskach.

Plusy:

Ilość pamięci jest sumowana.

Znaczący wzrost wydajności (liczba dysków bezpośrednio wpływa na wzrost wydajności).


Wady:

Niezawodność RAID 0 jest niższa niż nawet najbardziej zawodnego dysku, ponieważ jeśli któryś z dysków ulegnie awarii, cała macierz przestanie działać.


2. - macierz lustrzana dysku. Ta macierz składa się z pary dysków, które całkowicie się kopiują.

Plusy:

Zapewnienie akceptowalnej szybkości zapisu podczas równoległych zapytań, a także zwiększenie szybkości odczytu.

Zapewnienie wysokiej niezawodności - macierz dyskowa tego typu funkcjonuje do momentu, aż pracuje w niej co najmniej 1 dysk. Prawdopodobieństwo awarii 2 dysków jednocześnie, które jest równe iloczynowi prawdopodobieństw awarii każdego z nich, jest znacznie mniejsze niż prawdopodobieństwo awarii jednego dysku. W praktyce w przypadku awarii jednego z dysków konieczne jest podjęcie natychmiastowych działań, przywracając ponownie redundancję. Aby to zrobić, zaleca się stosowanie dysków typu hot spare z RAID dowolnego poziomu (z wyjątkiem zera).


Wady:

Wadą RAID 1 jest to, że użytkownik otrzymuje jeden dysk twardy w cenie dwóch dysków.



3. . Jest to macierz RAID 0 zbudowana z macierzy RAID 1.

4. RAID 2. Używany do tablic wykorzystujących kod Hamminga.

Tablice tego typu bazują na wykorzystaniu kodu Hamminga. Dyski są podzielone na 2 grupy: na dane, a także na kody używane do korekcji błędów. Dane na dyskach służących do przechowywania informacji rozkładają się podobnie jak w RAID 0, czyli są podzielone na małe bloki zgodnie z ilością dysków. Pozostałe dyski przechowują wszystkie kody korekcji błędów, które pomagają przywrócić informacje w przypadku awarii jednego z dysków twardych. Metoda Hamminga zastosowana w pamięci ECC umożliwia korygowanie pojedynczych błędów na bieżąco, jak również wykrywanie błędów podwójnych.

RAID 3, RAID 4. Są to macierze dyskowe z stripingiem, a także dedykowany dysk parzystości. W RAID 3 dane z n dysków są dzielone na komponenty podsektora (bloki lub bajty), a następnie rozdzielane na n-1 dysków. Bloki parzystości są przechowywane na jednym dysku. W macierzy RAID 2 wykorzystano do tego celu n-1 dysków, jednak większość informacji na dyskach kontrolnych wykorzystano do korygowania błędów na bieżąco, podczas gdy dla większości użytkowników w przypadku awarii dysku prosty wystarczy odzyskiwanie informacji (do tego wystarczy informacja mieszcząca się na jednym dysku twardym).

Macierz RAID 4 jest podobna do macierzy RAID 3, jednak dane na niej nie są podzielone na pojedyncze bajty, ale na bloki. To częściowo umożliwiło rozwiązanie problemu niewystarczająco wysokiej szybkości przesyłania danych przy małej objętości. Ten zapis jest zbyt wolny ze względu na fakt, że zapis generuje parzystość dla bloku, zapisując na jednym dysku.
W przeciwieństwie do RAID 2, RAID 3 różni się niemożnością korygowania błędów w locie, a także mniejszą redundancją.

Plusy:

Dostawcy chmury również aktywnie kupują systemy pamięci masowej na swoje potrzeby, np. Facebook i Google budują własne serwery z gotowych komponentów na zamówienie, ale te serwery nie są uwzględniane w raporcie IDC.

IDC spodziewa się również, że rynki wschodzące wkrótce wyprzedzą rynki rozwinięte pod względem zużycia pamięci masowej, gdyż charakteryzują się wyższymi wskaźnikami wzrostu gospodarczego. Na przykład region Europy Wschodniej i Środkowej, Afryki i Bliskiego Wschodu w 2014 roku pod względem wydatków na systemy pamięci prześcignie Japonię. Do 2015 roku region Azji i Pacyfiku, z wyłączeniem Japonii, prześcignie Europę Zachodnią pod względem zużycia pamięci masowej.

Prowadzona przez naszą firmę „Navigator” sprzedaż systemów przechowywania danych daje każdemu możliwość uzyskania niezawodnej i trwałej podstawy do przechowywania swoich multimedialnych danych. Szeroki wybór Macierze RAID, pamięci sieciowe i inne systemy umożliwiają indywidualne wybranie dla każdej kolejności RAID od drugiej do czwartej jest niemożliwość operacji zapisu równoległego, ze względu na fakt, że osobny dysk parzystości służy do przechowywania cyfrowych informacji o parzystości. RAID 5 nie ma powyższej wady. Sumy kontrolne i bloki danych zapisywane są automatycznie na wszystkich dyskach, nie ma asymetrii w konfiguracji dysków. Sumy kontrolne oznaczają wynik operacji XOR XOR umożliwia zastąpienie dowolnego operandu wynikiem i za pomocą algorytmu XOR uzyskanie w rezultacie brakującego operandu. Do zapisania wyniku XOR potrzebny jest tylko jeden dysk (jego rozmiar jest identyczny z rozmiarem dowolnego dysku w nalocie).

Plusy:

Popularność RAID5 wynika przede wszystkim z jego opłacalności. Zapisy w woluminie RAID5 zużywają dodatkowe zasoby, co powoduje spadek wydajności, ponieważ wymagane są dodatkowe obliczenia i zapisy. Ale z drugiej strony, podczas czytania (w porównaniu z oddzielnym twardy dysk) istnieje pewna korzyść polegająca na tym, że strumienie danych pochodzące z kilku dysków mogą być przetwarzane równolegle.


Wady:

RAID 5 ma znacznie niższą wydajność, zwłaszcza podczas wykonywania losowych operacji zapisu (takich jak Random Write), które obniżają wydajność o 10-25 procent RAID 10 lub RAID 0. Dzieje się tak, ponieważ ten proces wymaganych jest więcej operacji na dysku (zastąpienie każdej operacji zapisu serwera przez kontroler RAID 3 operacje - 1 operacja odczytu i 2 operacje zapisu). Wady RAID 5 pojawiają się, gdy jeden dysk ulegnie awarii - w tym przypadku cały wolumin przechodzi w tryb krytyczny, wszystkim operacjom odczytu i zapisu towarzyszą dodatkowe manipulacje, co prowadzi do gwałtownego spadku wydajności. W takim przypadku poziom niezawodności spada do poziomu niezawodności RAID 0 wyposażonego w odpowiednią liczbę dysków, stając się n razy niższy niż niezawodność pojedynczego dysku. W przypadku, gdy jeszcze co najmniej jeden dysk ulegnie awarii przed przywróceniem macierzy lub wystąpi na nim nieodwracalny błąd, macierz zostanie zniszczona, a danych na niej nie będzie można odtworzyć konwencjonalnymi metodami. Należy również pamiętać, że proces odbudowy przy użyciu nadmiarowych danych RAID, zwany rekonstrukcją RAID, po awarii dysku spowoduje intensywne, ciągłe obciążenie odczytem ze wszystkich dysków, które będzie się utrzymywać przez wiele godzin. W rezultacie jeden z pozostałych dysków może ulec awarii. Ponadto mogą zostać ujawnione niewykryte wcześniej awarie odczytu danych w zimnych macierzach danych (danych, do których nie ma dostępu podczas normalnej pracy macierzy - nieaktywnych i zarchiwizowanych), co prowadzi do zwiększonego ryzyka niepowodzenia podczas odzyskiwania danych.



6. to macierz RAID 50 zbudowana z macierzy RAID5;

7. - rozłożona macierz dyskowa wykorzystująca 2 sumy kontrolne obliczane na 2 niezależne sposoby.

RAID 6 jest pod wieloma względami podobny do RAID 5, ale różni się od niego wyższym stopniem niezawodności: przydziela pojemność dwóch dysków na sumy kontrolne, dwie sumy są obliczane przy użyciu różnych algorytmów. Wymagany jest kontroler RAID o większej pojemności. Pomaga chronić przed wielokrotnymi awariami, zapewniając działanie po jednoczesnej awarii dwóch dysków. Tworzenie tablic wymaga co najmniej czterech dysków. Używanie RAID-6 zwykle powoduje spadek wydajności grupy dysków o około 10-15 procent. Wynika to z dużej ilości informacji, które kontroler musi przetworzyć (istnieje konieczność obliczenia drugiej sumy kontrolnej, a także odczytania i przepisania większej liczby bloków dysku w procesie zapisu każdego z bloków).

8. to macierz RAID 0 zbudowana z macierzy RAID6.

9. Hybrydowy RAID. To kolejny poziom RAID, który ostatnio stał się dość popularny. Są to normalne poziomy RAID używane z dodatkowym oprogramowaniem i dyskami SSD używanymi jako pamięć podręczna odczytu. Prowadzi to do wzrostu wydajności systemu, ponieważ dyski SSD w porównaniu z dyskami twardymi mają znacznie lepszą charakterystykę prędkości. Obecnie istnieje kilka wdrożeń, na przykład Crucial Adrenaline, a także kilka budżetowych kontrolerów Adaptec. Obecnie korzystanie z Hybrid RAID nie jest zalecane ze względu na niski zasób dysków SSD.


Odczyty w Hybrid RAID są wykonywane na szybszych dyskach SSD, podczas gdy zapisy są wykonywane zarówno na dyskach SSD, jak i na dyskach twardych (odbywa się to w celu zapewnienia nadmiarowości).
Hybrydowy RAID doskonale nadaje się do aplikacji korzystających z danych niskiego poziomu (virtual komputer, serwer plików lub brama internetowa).

Cechy współczesnego rynku pamięci masowej

Firma analityczna IDC latem 2013 roku opublikowała kolejną prognozę dla rynku pamięci masowych, obliczoną przez nią do 2017 roku. Z wyliczeń analityków wynika, że ​​w ciągu najbliższych czterech lat światowe przedsiębiorstwa będą kupować systemy pamięci masowych, których łączna pojemność wyniesie jeden sto trzydzieści osiem eksabajtów. Całkowita możliwa do zrealizowania pojemność magazynowa będzie rosła o około 30% rocznie.

Jednak w porównaniu z poprzednimi latami, kiedy następował gwałtowny wzrost zużycia pamięci masowej, tempo tego wzrostu nieco zwolni, gdyż obecnie większość firm korzysta z rozwiązań chmurowych, preferując technologie optymalizujące przechowywanie danych. Oszczędność przestrzeni dyskowej uzyskuje się za pomocą narzędzi takich jak wirtualizacja, kompresja danych, deduplikacja danych itp. Wszystkie powyższe narzędzia zapewniają oszczędność miejsca, pozwalając firmom uniknąć spontanicznych zakupów i uciekać się do zakupu nowych systemów pamięci masowej tylko wtedy, gdy są one naprawdę potrzebne.

Spośród 138 eksabajtów, które mają zostać sprzedane w 2017 r., 102 eksabajty będą przeznaczone na pamięć zewnętrzną, a 36 eksabajtów na pamięć wewnętrzną. W 2012 roku wdrożono dwadzieścia eksabajtów pamięci dla systemów zewnętrznych i osiem dla systemów wewnętrznych. Koszty finansowe przemysłowych systemów magazynowania będą rosły o około 4,1 procent rocznie i do 2017 roku wyniosą około czterdziestu dwóch i pół miliarda dolarów.

Zauważyliśmy już, że światowy rynek pamięci masowych, który przeżywał ostatnio prawdziwy boom, stopniowo zaczął spadać. W 2005 roku wzrost zużycia pamięci na poziomie przemysłowym wyniósł sześćdziesiąt pięć procent, aw latach 2006 i 2007 po pięćdziesiąt dziewięć procent. W kolejnych latach dynamika zużycia pamięci masowych uległa dalszemu obniżeniu ze względu na negatywny wpływ światowego kryzysu gospodarczego.

Analitycy przewidują, że wzrost wykorzystania pamięci masowej w chmurze doprowadzi do spadku zużycia rozwiązań pamięci masowej na poziomie przedsiębiorstwa. Dostawcy chmury również aktywnie kupują systemy pamięci masowej na swoje potrzeby, np. Facebook i Google budują własne serwery z gotowych komponentów na zamówienie, ale te serwery nie są uwzględniane w raporcie IDC.

IDC spodziewa się również, że rynki wschodzące wkrótce wyprzedzą rynki rozwinięte pod względem zużycia pamięci masowej, gdyż charakteryzują się wyższymi wskaźnikami wzrostu gospodarczego. Na przykład region Europy Wschodniej i Środkowej, Afryki i Bliskiego Wschodu w 2014 roku pod względem wydatków na systemy pamięci prześcignie Japonię. Do 2015 roku region Azji i Pacyfiku, z wyłączeniem Japonii, prześcignie Europę Zachodnią pod względem zużycia pamięci masowej.

Szybka sprzedaż systemów pamięci masowej

Prowadzona przez naszą firmę „Navigator” sprzedaż systemów przechowywania danych daje każdemu możliwość uzyskania niezawodnej i trwałej podstawy do przechowywania swoich multimedialnych danych. Szeroki wybór macierzy Raid, pamięci sieciowych i innych systemów daje możliwość indywidualnego doboru dla każdego klienta kompleksu, który najbardziej mu odpowiada.

szeroki możliwości techniczne, wiedza i doświadczenie personelu firmy gwarantują szybką i kompleksową realizację zadania. Jednocześnie nie ograniczamy się wyłącznie do sprzedaży systemów przechowywania danych, gdyż zajmujemy się również ich konfiguracją, uruchomieniem oraz późniejszym serwisem i utrzymaniem.

To właśnie informacja jest siłą napędową współczesnego biznesu i jest obecnie uważana za najcenniejszy zasób strategiczny każdego przedsiębiorstwa. Ilość informacji rośnie wykładniczo wraz ze wzrostem globalne sieci i rozwój handlu elektronicznego. Aby odnieść sukces w wojnie informacyjnej, konieczna jest skuteczna strategia przechowywania, ochrony, udostępniania i zarządzania najważniejszym zasobem cyfrowym – danymi – zarówno dziś, jak iw najbliższej przyszłości.

Zarządzanie zasobami pamięci masowej stało się jednym z najpilniejszych problemów strategicznych działów Technologie informacyjne. W związku z rozwojem Internetu i fundamentalnymi zmianami w procesach biznesowych informacje gromadzą się w niespotykanym dotąd tempie. Oprócz pilnego problemu zapewnienia możliwości stałego zwiększania ilości przechowywanych informacji, nie mniej palący jest problem zapewnienia niezawodności przechowywania danych i stałego dostępu do informacji. Dla wielu firm formuła dostępu do danych „24 godziny na dobę, 7 dni w tygodniu, 365 dni w roku” stała się normą.

W przypadku pojedynczego komputera PC system pamięci masowej (SAN) można rozumieć jako oddzielny wewnętrzny dysk twardy lub system dyskowy. Jeśli chodzi o korporacyjną pamięć masową, to tradycyjnie istnieją trzy technologie organizacji przechowywania danych: Direct Attached Storage (DAS), Network Attached Storage (NAS) i Storage Area Network (SAN).

Pamięć masowa podłączana bezpośrednio (DAS)

Technologia DAS oznacza bezpośrednie (bezpośrednie) połączenie dysków z serwerem lub komputerem PC. W takim przypadku dyski (dyski twarde, napędy taśmowe) mogą być zarówno wewnętrzne, jak i zewnętrzne. Najprostszym przypadkiem systemu DAS jest pojedynczy dysk wewnątrz serwera lub komputera PC. Ponadto systemowi DAS można również przypisać organizację wewnętrznej macierzy dysków RAID za pomocą kontrolera RAID.

Należy zauważyć, że pomimo formalnej możliwości używania terminu system DAS w odniesieniu do pojedynczego dysku lub wewnętrznej macierzy dysków, system DAS rozumiany jest zwykle jako zewnętrzny stelaż lub kosz z dyskami, który można uznać za samodzielny system przechowywania (ryc. 1). Oprócz niezależnego zasilania, takie autonomiczne systemy DAS posiadają wyspecjalizowany kontroler (procesor) do zarządzania macierzą dysków. Na przykład kontroler RAID z możliwością organizowania macierzy RAID o różnych poziomach może pełnić rolę takiego kontrolera.

Ryż. 1. Przykład systemu pamięci masowej DAS

Należy zauważyć, że autonomiczne systemy DAS mogą posiadać kilka zewnętrznych kanałów I/O, co umożliwia jednoczesne podłączenie kilku komputerów do systemu DAS.

Interfejsy SCSI (Small Computer Systems Interface), SATA, PATA i Fibre Channel mogą pełnić rolę interfejsów do podłączania napędów (wewnętrznych lub zewnętrznych) w technologii DAS. Podczas gdy interfejsy SCSI, SATA i PATA są używane głównie do podłączania dysków wewnętrznych, interfejs Fibre Channel służy wyłącznie do dyski zewnętrzne i autonomiczne systemy pamięci masowej. Zaletą interfejsu Fibre Channel w tym przypadku jest to, że nie ma on ścisłego limitu długości i może być używany, gdy serwer lub komputer podłączony do systemu DAS znajduje się w znacznej odległości od niego. Interfejsy SCSI i SATA mogą być również używane do podłączania zewnętrznych systemów pamięci masowej (w tym przypadku interfejs SATA nazywa się eSATA), jednak interfejsy te mają ścisłe ograniczenie maksymalnej długości kabla łączącego system DAS z podłączonym serwerem.

Główne zalety systemów DAS to niski koszt (w porównaniu z innymi rozwiązaniami storage), łatwość wdrożenia i administrowania oraz duża szybkość wymiany danych pomiędzy systemem storage a serwerem. Właściwie to właśnie dzięki temu zyskały dużą popularność w segmencie małych biur i małych sieci korporacyjnych. Jednocześnie systemy DAS mają również swoje wady, do których należą słabe zarządzanie i nieoptymalne wykorzystanie zasobów, ponieważ każdy system DAS wymaga podłączenia dedykowanego serwera.

Obecnie systemy DAS zajmują wiodącą pozycję, jednak udział sprzedaży tych systemów stale maleje. Systemy DAS są stopniowo zastępowane albo rozwiązaniami uniwersalnymi z możliwością płynnej migracji z systemów NAS, albo systemami, które dają możliwość wykorzystania ich zarówno jako systemów DAS i NAS, a nawet SAN.

Z systemów DAS należy korzystać, gdy konieczne jest zwiększenie przestrzeni dyskowej jednego serwera i przeniesienie go poza obudowę. Systemy DAS można również polecić do stosowania na stanowiskach przetwarzających duże ilości informacji (np. stanowiska do nieliniowej edycji wideo).

Sieciowa pamięć masowa (NAS)

Systemy NAS są systemy sieciowe urządzenia pamięci masowej, które są bezpośrednio podłączone do sieci w taki sam sposób, jak sieciowy serwer wydruku, router lub inne urządzenie sieciowe (rys. 2). W rzeczywistości systemy NAS są ewolucją serwerów plików: różnica między tradycyjnym serwerem plików a urządzeniem NAS jest mniej więcej taka sama, jak między sprzętowym routerem sieciowym a dedykowanym routerem programowym opartym na serwerze.

Ryż. 2. Przykład pamięci masowej NAS

Aby zrozumieć różnicę pomiędzy tradycyjnym serwerem plików a urządzeniem NAS pamiętajmy, że tradycyjny serwer plików to dedykowany komputer (serwer) przechowujący informacje dostępne dla użytkowników sieci. Do przechowywania informacji można wykorzystać dyski twarde zainstalowane w serwerze (z reguły są one instalowane w specjalnych koszykach) lub podłączyć do serwera urządzenia DAS. Serwer plików jest administrowany za pomocą systemu operacyjnego serwera. Takie podejście do organizacji systemów przechowywania danych jest obecnie najbardziej popularne w segmencie małych sieci lokalnych, ale ma jedną istotną wadę. Faktem jest, że serwer uniwersalny (a nawet w połączeniu z serwerowym systemem operacyjnym) wcale nie jest tanim rozwiązaniem. Jednocześnie większość funkcjonalność, które są nieodłącznym elementem serwera uniwersalnego, po prostu nie są używane w serwerze plików. Chodzi o to, aby stworzyć zoptymalizowany serwer plików ze zoptymalizowanym systemem operacyjnym i zrównoważoną konfiguracją. To właśnie ta koncepcja jest ucieleśnieniem urządzenia NAS. W tym sensie urządzenia NAS można traktować jako „cienkie” serwery plików lub inaczej zwane filtrami.

Oprócz zoptymalizowanego systemu operacyjnego, uwolnionego od wszystkich funkcji, które nie są związane z obsługą systemu plików i realizacją wejścia/wyjścia danych, systemy NAS posiadają zoptymalizowany pod kątem dostępu system plików. Systemy NAS są zaprojektowane w taki sposób, że cała ich moc obliczeniowa jest skoncentrowana wyłącznie na obsłudze plików i operacjach przechowywania. Sam system operacyjny znajduje się w pamięci flash i jest preinstalowany przez producenta. Oczywiście wraz z wydaniem nowej wersji systemu operacyjnego użytkownik może samodzielnie „przeflashować” system. Podłączenie urządzeń NAS do sieci i ich konfiguracja jest zadaniem dość prostym i w zasięgu ręki każdego doświadczonego użytkownika, nie mówiąc już o administratorze systemu.

Tym samym, w porównaniu z tradycyjnymi serwerami plików, urządzenia NAS są wydajniejsze i tańsze. Obecnie prawie wszystkie urządzenia NAS przeznaczone są do pracy w sieciach Ethernet (Fast Ethernet, Gigabit Ethernet) opartych na protokołach TCP/IP. Dostęp do urządzeń NAS uzyskuje się za pomocą specjalnych protokołów dostępu do plików. Najpopularniejsze protokoły dostępu do plików to CIFS, NFS i DAFS.

CIFS(Common Internet File System System - ogólny system plików Internetu) to protokół zapewniający dostęp do plików i usług na komputerach zdalnych (w tym w Internecie) i wykorzystujący model interakcji klient-serwer. Klient tworzy żądanie do serwera w celu uzyskania dostępu do plików, serwer spełnia żądanie klienta i zwraca wynik swojej pracy. Protokół CIFS jest tradycyjnie używany w sieciach lokalnych Windows do uzyskiwania dostępu do plików. CIFS używa protokołu TCP/IP do przesyłania danych. CIFS zapewnia funkcjonalność podobną do FTP (File Transfer Protocol), ale daje klientom lepszą kontrolę nad plikami. Umożliwia także współdzielenie dostępu do plików między klientami poprzez blokowanie i automatyczne ponowne łączenie się z serwerem w przypadku awarii sieci.

Protokół NFS(Network File System - sieciowy system plików) jest tradycyjnie używany na platformach UNIX i jest połączeniem rozproszonego systemu plików i protokołu sieciowego. Protokół NFS wykorzystuje również model interakcji klient-serwer. Protokół NFS zapewnia dostęp do plików na zdalnym hoście (serwerze) tak, jakby znajdowały się one na komputerze użytkownika. NFS używa protokołu TCP/IP do przesyłania danych. Do działania NFS w Internecie opracowano protokół WebNFS.

Protokół DAF(Direct Access File System) to standardowy protokół dostępu do plików oparty na NFS. Protokół ten umożliwia zadaniom aplikacji przesyłanie danych z pominięciem systemu operacyjnego i jego przestrzeni buforowej bezpośrednio do zasobów transportowych. Protokół DAFS zapewnia wysokie prędkości operacji we/wy plików i zmniejsza obciążenie procesora, znacznie zmniejszając liczbę operacji i przerwań, które są zwykle wymagane w przetwarzaniu protokołów sieciowych.

DAFS został zaprojektowany do użytku w środowisku klastrowym i serwerowym dla baz danych i różnorodnych aplikacji internetowych nastawionych na ciągłą pracę. Zapewnia najmniejsze opóźnienia dostępu do udziałów plików i danych, a także wspiera inteligentne mechanizmy odzyskiwania systemu i danych, co czyni go atrakcyjnym do zastosowania w systemach NAS.

Podsumowując powyższe, systemy NAS można polecić do użytku w sieciach wieloplatformowych w przypadku, gdy dostęp do sieci do plików i dość ważnymi czynnikami są łatwość instalacji administracji systemem przechowywania. Doskonałym przykładem jest wykorzystanie NAS jako serwera plików w małym biurze firmy.

Sieć pamięci masowej (SAN)

Właściwie SAN nie jest już osobnym urządzeniem, ale kompleksowym rozwiązaniem, które stanowi wyspecjalizowaną infrastrukturę sieciową do przechowywania danych. Sieci SAN są zintegrowane jako oddzielne wyspecjalizowane podsieci w sieci lokalnej (LAN) lub sieci rozległej (WAN).

Zasadniczo sieci SAN łączą jeden lub więcej serwerów (serwery SAN) z jednym lub większą liczbą urządzeń pamięci masowej. Sieci SAN umożliwiają dowolnemu serwerowi SAN dostęp do dowolnego urządzenia pamięci masowej bez ładowania innych serwerów lub sieci lokalnej. Ponadto możliwa jest wymiana danych pomiędzy urządzeniami pamięci masowej bez udziału serwerów. W rzeczywistości sieci SAN umożliwiają bardzo dużej liczbie użytkowników przechowywanie informacji w jednym miejscu (z szybkim scentralizowanym dostępem) i udostępnianie ich. Jako urządzenia do przechowywania danych można wykorzystać macierze RAID, różne biblioteki (taśmy, magneto-optyczne itp.), a także systemy JBOD (macierze dyskowe nie łączone w RAID).

Sieci magazynowe zaczęły się intensywnie rozwijać i wprowadzać dopiero od 1999 roku.

Tak jak sieci lokalne można w zasadzie budować w oparciu o różne technologie i standardy, tak różne technologie mogą być wykorzystywane do budowy sieci SAN. Ale tak jak standard Ethernet (Fast Ethernet, Gigabit Ethernet) stał się de facto standardem dla sieci lokalnych, tak sieci pamięci masowej są zdominowane przez standard Fibre Channel (FC). Właściwie to rozwój standardu Fibre Channel doprowadził do powstania samej koncepcji SAN. Jednocześnie należy zauważyć, że coraz większą popularnością cieszy się standard iSCSI, w oparciu o który możliwe jest również budowanie sieci SAN.

Oprócz parametrów prędkości, jedną z najważniejszych zalet Fibre Channel jest możliwość pracy na duże odległości oraz elastyczność topologii. Koncepcja budowy topologii SAN opiera się na tych samych zasadach, co tradycyjne sieci lokalne oparte na przełącznikach i routerach, co znacznie upraszcza budowę systemów wielowęzłowych.

Warto zaznaczyć, że do transmisji danych w standardzie Fibre Channel wykorzystywane są zarówno kable światłowodowe, jak i kable miedziane. Podczas organizowania dostępu do geograficznie odległych węzłów w odległości do 10 km do transmisji sygnału wykorzystywane są standardowe urządzenia i światłowód jednomodowy. Jeśli węzły dzieli większa odległość (dziesiątki, a nawet setki kilometrów), stosuje się specjalne wzmacniacze.

Topologia sieci SAN

Typową sieć SAN Fibre Channel pokazano na rys. 3. Infrastruktura takiej sieci SAN składa się z urządzeń pamięci masowej z interfejsem Fibre Channel, serwerów SAN (serwery podłączone zarówno do sieci lokalnej za pośrednictwem interfejsu Ethernet, jak i do sieci SAN za pośrednictwem interfejsu Fibre Channel) oraz przełączającej sieci szkieletowej (Fibre Channel Fabric), który jest zbudowany w oparciu o przełączniki (huby) Fibre Channel i jest zoptymalizowany do przesyłania dużych bloków danych. Dostęp użytkowników sieci do systemu storage realizowany jest poprzez serwery SAN. Jednocześnie ważne jest, aby ruch w sieci SAN był odseparowany od ruchu IP sieci lokalnej, co oczywiście zmniejsza obciążenie sieci lokalnej.

Ryż. 3. Typowy układ sieci SAN

Korzyści z sieci SAN

Główne zalety technologii SAN to wysoka wydajność, wysoki poziom dostępności danych, doskonała skalowalność i łatwość zarządzania, możliwość konsolidacji i wirtualizacji danych.

Nieblokujące struktury przełączników Fibre Channel umożliwiają wielu serwerom SAN jednoczesny dostęp do urządzeń pamięci masowej.

W architekturze SAN dane można łatwo przenosić z jednego urządzenia pamięci masowej do drugiego, co pozwala na zoptymalizowane rozmieszczenie danych. Jest to szczególnie ważne, gdy wiele serwerów SAN musi jednocześnie uzyskiwać dostęp do tych samych urządzeń pamięci masowej. Należy pamiętać, że proces konsolidacji danych nie jest możliwy w przypadku korzystania z innych technologii, takich jak wykorzystanie urządzeń DAS, czyli urządzeń do przechowywania danych, które są bezpośrednio podłączone do serwerów.

Kolejną możliwością, jaką zapewnia architektura SAN, jest wirtualizacja danych. Ideą wirtualizacji jest zapewnienie serwerom SAN dostępu nie do poszczególnych urządzeń pamięci masowej, ale do zasobów. Oznacza to, że serwery powinny „widzieć” nie urządzenia pamięci masowej, ale zasoby wirtualne. Dla praktyczna realizacja wirtualizacji pomiędzy serwerami SAN a urządzeniami dyskowymi, można umieścić specjalne urządzenie wirtualizacyjne, do którego z jednej strony podłączone są urządzenia pamięci masowej, a z drugiej serwery SAN. Ponadto wiele nowoczesnych przełączników FC i HBA zapewnia możliwość implementacji wirtualizacji.

Kolejną możliwością zapewnianą przez sieci SAN jest implementacja zdalnego dublowania danych. Zasada dublowania danych polega na powielaniu informacji na kilku nośnikach, co zwiększa niezawodność przechowywania informacji. Przykładem najprostszego przypadku dublowania danych jest połączenie dwóch dysków w macierz RAID poziomu 1. W tym przypadku te same informacje są zapisywane jednocześnie na dwóch dyskach. Wadę tej metody można uznać za lokalną lokalizację obu dysków (z reguły dyski znajdują się w tym samym koszu lub stojaku). Sieci SAN przezwyciężają tę wadę i zapewniają możliwość tworzenia kopii lustrzanych nie tylko pojedynczych urządzeń pamięci masowej, ale także samych sieci SAN, które mogą być oddalone od siebie o setki kilometrów.

Kolejną zaletą sieci SAN jest łatwość tworzenia kopii zapasowych danych. Tradycyjna technologia tworzenia kopii zapasowych, która jest stosowana w większości sieci lokalnych, wymaga dedykowanego serwera kopii zapasowych oraz, co najważniejsze, dedykowanej przepustowości sieci. W rzeczywistości podczas operacji tworzenia kopii zapasowej sam serwer staje się niedostępny dla użytkowników sieci lokalnej. Właściwie dlatego kopie zapasowe są zwykle tworzone w nocy.

Architektura sieci pamięci masowej pozwala na zasadniczo odmienne podejście do problemu backupu. W tym przypadku Serwer Backup jest częścią sieci SAN i jest podłączony bezpośrednio do przełączanej struktury. W takim przypadku ruch związany z kopią zapasową jest izolowany od ruchu w sieci lokalnej.

Sprzęt używany do tworzenia sieci SAN

Jak już wspomniano, wdrożenie sieci SAN wymaga urządzeń pamięci masowej, serwerów SAN i sprzętu do zbudowania przełączanej sieci szkieletowej. Sieci przełączników obejmują zarówno urządzenia warstwy fizycznej (kable, złącza), jak i urządzenia połączeniowe (Interconnect Device) służące do łączenia ze sobą węzłów SAN, urządzenia translacyjne realizujące funkcje konwersji protokołu Fibre Channel (FC) na inne protokoły, np. SCSI, FCP, FICON, Ethernet, ATM lub SONET.

Kable

Jak już wspomniano, standard Fibre Channel umożliwia stosowanie zarówno kabli światłowodowych, jak i miedzianych do łączenia urządzeń SAN. Jednocześnie w tej samej sieci SAN można stosować różne typy kabli. Kabel miedziany jest używany na krótkich dystansach (do 30 m), podczas gdy kabel światłowodowy jest używany zarówno na krótkich dystansach, jak i na dystansach do 10 km lub więcej. Wykorzystywane są zarówno kable światłowodowe wielomodowe (wielomodowe), jak i jednomodowe (jednomodowe), przy czym wielomodowe są używane na odległości do 2 km, a jednomodowe na większe odległości.

Współistnienie różne rodzaje okablowanie w ramach tej samej sieci SAN jest realizowane przez specjalne konwertery interfejsów GBIC (Gigabit Interface Converter) i MIA (Media Interface Adapter).

Standard Fibre Channel ma kilka możliwych szybkości transmisji (patrz tabela). Należy pamiętać, że obecnie najpopularniejsze urządzenia FC o standardach 1, 2 i 4 GFC. Zapewnia to kompatybilność wsteczną urządzeń o wyższej prędkości z wolniejszymi, czyli urządzenie 4 GFC automatycznie obsługuje podłączenie urządzeń o standardach 1 i 2 GFC.

Połącz urządzenia

Standard Fibre Channel umożliwia korzystanie z różnych topologii sieci do łączenia urządzeń, takich jak punkt-punkt, pętla arbitrażowa (FC-AL) i przełączana struktura.

Topologia punkt-punkt może być wykorzystana do połączenia serwera z dedykowanym systemem pamięci masowej. W takim przypadku dane nie są udostępniane serwerom SAN. W rzeczywistości ta topologia jest wariantem systemu DAS.

Aby zaimplementować topologię punkt-punkt, potrzebny jest co najmniej serwer wyposażony w adapter Fibre Channel oraz urządzenie pamięci masowej z interfejsem Fibre Channel.

Topologia Shared Access Ring (FC-AL) odnosi się do schematu połączeń urządzeń, w którym dane są przesyłane w logicznie zamkniętej pętli. W topologii pierścienia FC-AL urządzeniami łączącymi mogą być koncentratory lub przełączniki Fibre Channel. W przypadku koncentratorów przepustowość jest dzielona między wszystkie węzły w pierścieniu, podczas gdy każdy port przełącznika zapewnia przepustowość protokołu dla każdego węzła.

na ryc. Rysunek 4 przedstawia przykład podzielonego pierścienia Fibre Channel.

Ryż. Rysunek 4. Przykład rozciętego pierścienia Fibre Channel

Konfiguracja jest podobna do fizycznej gwiazdy i pierścienia logicznego stosowanych w sieciach LAN opartych na technologii Token Ring. Ponadto, podobnie jak w przypadku sieci Token Ring, dane przemieszczają się po pierścieniu w jednym kierunku, ale w przeciwieństwie do sieci Token Ring urządzenie może poprosić o prawo do przesyłania danych, zamiast czekać na pusty token z przełącznika. Pierścienie Fibre Channel z dostępem dzielonym mogą adresować do 127 portów, ale wykazano, że typowe pierścienie FC-AL zawierają do 12 węzłów, a po podłączeniu 50 węzłów wydajność drastycznie spada.

Topologia architektury przełączanej sieci szkieletowej (Fibre Channel Switched-fabric) jest realizowana w oparciu o przełączniki Fibre Channel. W tej topologii każde urządzenie ma logiczne połączenie z każdym innym urządzeniem. W rzeczywistości przełączniki szkieletowe Fibre Channel pełnią te same funkcje, co tradycyjne przełączniki Ethernet. Przypomnijmy, że w przeciwieństwie do koncentratora przełącznik jest urządzeniem o dużej szybkości, które zapewnia połączenie typu „każdy z każdym” i obsługuje wiele jednoczesnych połączeń. Każdy węzeł podłączony do przełącznika Fibre Channel otrzymuje przepustowość protokołu.

W większości przypadków przy tworzeniu dużych sieci SAN stosowana jest topologia mieszana. Dolna warstwa wykorzystuje pierścienie FC-AL podłączone do przełączników o niskiej wydajności, które z kolei łączą się z szybkimi przełącznikami, które zapewniają najwyższą możliwą przepustowość. Można połączyć ze sobą kilka przełączników.

Urządzenia rozgłoszeniowe

Urządzenia translacyjne to urządzenia pośrednie, które konwertują protokół Fibre Channel na protokoły wyższych warstw. Urządzenia te przeznaczone są do łączenia sieci Fibre Channel z zewnętrzną siecią WAN, siecią lokalną, a także do łączenia różnych urządzeń i serwerów z siecią Fibre Channel. Do takich urządzeń należą mosty (Bridge), adaptery Fibre Channel (Adaptery magistrali hosta (HBA), routery, bramy i adaptery sieciowe. Klasyfikacja urządzeń rozgłoszeniowych została przedstawiona na rys. 5.

Ryż. 5. Klasyfikacja urządzeń nadawczych

Najpopularniejszymi urządzeniami tłumaczącymi są karty HBA PCI, które służą do łączenia serwerów z siecią Fibre Channel. Karty sieciowe umożliwiają łączenie sieci Ethernet LAN z sieciami Fibre Channel. Mosty służą do łączenia urządzeń pamięci masowej SCSI z siecią Fibre Channel. Należy zauważyć, że ostatnio prawie wszystkie urządzenia pamięci masowej, które są przeznaczone do użytku w sieciach SAN, mają wbudowany Fibre Channel i nie wymagają stosowania mostów.

Urządzenia pamięci masowej

Zarówno dyski twarde, jak i napędy taśmowe mogą być używane jako urządzenia pamięci masowej w sieciach SAN. Jeśli mówimy o możliwych konfiguracjach wykorzystania dysków twardych jako urządzeń pamięci masowej w sieciach SAN, mogą to być zarówno macierze JBOD, jak i macierze dyskowe RAID. Tradycyjnie urządzenia pamięci masowej dla sieci SAN dostępne są w postaci zewnętrznych racków lub koszy wyposażonych w wyspecjalizowany kontroler RAID. W przeciwieństwie do urządzeń NAS lub DAS, urządzenia SAN są wyposażone w interfejs Fibre Channel. Jednocześnie same dyski mogą mieć zarówno interfejsy SCSI, jak i SATA.

Oprócz urządzeń pamięci masowej opartych na dyskach twardych, w sieciach SAN szeroko stosowane są napędy taśmowe i biblioteki.

Serwery SAN

Serwery dla sieci SAN różnią się od konwencjonalnych serwerów aplikacji tylko jednym szczegółem. Oprócz adaptera sieci Ethernet wyposażone są w adapter HBA do interakcji serwera z siecią lokalną, co pozwala na podłączenie ich do sieci SAN opartych na technologii Fibre Channel.

Systemy pamięci masowej Intela

Następnie przyjrzymy się kilku konkretnym przykładom urządzeń pamięci masowej firmy Intel. Ściśle mówiąc, Intel nie wydaje kompletnych rozwiązań i zajmuje się opracowywaniem i produkcją platform oraz poszczególnych komponentów do budowy systemów przechowywania danych. W oparciu o te platformy wiele firm (w tym szereg firm rosyjskich) produkuje kompletne rozwiązania i sprzedaje je pod własnym logo.

Podstawowy system pamięci masowej Intel SS4000-E

Intel Entry Storage System SS4000-E to urządzenie NAS przeznaczone do użytku w małych i średnich biurach oraz wieloplatformowych sieciach LAN. Korzystając z systemu Intel Entry Storage System SS4000-E, klienci z platformami Windows, Linux i Macintosh uzyskują współdzielony dostęp sieciowy do danych. Ponadto Intel Entry Storage System SS4000-E może działać zarówno jako serwer DHCP, jak i klient DHCP.

Intel Entry Storage System SS4000-E to kompaktowa zewnętrzna szafa typu rack z maksymalnie czterema dyskami SATA (rysunek 6). Dzięki temu maksymalna pojemność systemu może wynieść 2 TB przy użyciu dysków o pojemności 500 GB.

Ryż. 6. Podstawowy system pamięci masowej Intel SS4000-E

Podstawowy system pamięci masowej Intel SS4000-E wykorzystuje kontroler SATA RAID obsługujący poziomy RAID 1, 5 i 10. Procesor, pamięć i system operacyjny z pamięcią flash. Procesor w Intel Entry Storage System SS4000-E wykorzystuje Intel 80219 z częstotliwość zegara 400MHz. Dodatkowo system wyposażono w 256 MB pamięci DDR oraz 32 MB pamięci flash do przechowywania systemu operacyjnego. Linux Kernel 2.6 jest używany jako system operacyjny.

Aby połączyć się z siecią lokalną, system ma dwukanałowy gigabitowy kontroler sieciowy. Ponadto dostępne są również dwa porty USB.

Intel Entry Storage System SS4000-E obsługuje protokoły CIFS/SMB, NFS i FTP, a urządzenie jest konfigurowane za pomocą interfejsu internetowego.

W przypadku korzystania z klientów Windows (obsługiwane są systemy operacyjne Windows 2000/2003/XP) dodatkowo istnieje możliwość wykonania kopii zapasowej i odzyskiwania danych.

System pamięci masowej Intel SSR212CC

Intel Storage System SSR212CC to wszechstronna platforma do budowy systemów pamięci masowej DAS, NAS i SAN. Ten system mieści się w obudowie o wysokości 2 U i jest przeznaczony do montażu w standardowej szafie 19-calowej (Rysunek 7). Intel Storage System SSR212CC obsługuje do 12 dysków SATA lub SATA II (obsługa wymiany podczas pracy), co pozwala rozszerzyć pojemność systemu do 6 TB za pomocą dysków 550 GB.

Ryż. 7. System pamięci masowej Intel SSR212CC

W rzeczywistości Intel Storage System SSR212CC to pełnoprawny serwer o wysokiej wydajności z systemem operacyjnym Red Hat Enterprise Linux 4.0, Microsoft Windows Storage Server 2003, Microsoft Windows Server 2003 Enterprise Edition i Microsoft Windows Server 2003 Standard Edition.

Serwer oparty jest na procesorze Intel Xeon o częstotliwości taktowania 2,8 GHz (częstotliwość FSB 800 MHz, rozmiar pamięci podręcznej L2 1 MB). System obsługuje SDRAM DDR2-400 z ECC do maksymalnie 12 GB (sześć gniazd DIMM jest przewidzianych do instalacji modułów pamięci).

Intel Storage System SSR212CC jest wyposażony w dwa kontrolery Intel RAID Controller SRCS28Xs RAID z możliwością tworzenia poziomów RAID 0, 1, 10, 5 i 50. Ponadto Intel Storage System SSR212CC ma dwukanałowy gigabitowy kontroler sieciowy.

System pamięci masowej Intel SSR212MA

Intel Storage System SSR212MA to oparta na iSCSI platforma pamięci masowej dla IP SAN.

System mieści się w obudowie o wysokości 2 U i jest przeznaczony do montażu w standardowym 19-calowym stojaku. Intel Storage System SSR212MA obsługuje do 12 dysków SATA (obsługa wymiany podczas pracy), co pozwala rozszerzyć pojemność systemu do 6 TB za pomocą dysków 550 GB.

Konfiguracja sprzętowa Intel Storage System SSR212MA jest taka sama jak Intel Storage System SSR212CC.

Wraz z codzienną komplikacją sieciowych systemów komputerowych i globalnych rozwiązań korporacyjnych świat zaczął domagać się technologii, które dałyby impuls do odrodzenia systemów przechowywania informacji przedsiębiorstwa (systemów pamięci masowej). I tak, jedna technologia wnosi do światowej skarbnicy ulepszeń w zakresie pamięci masowych niespotykaną prędkość, ogromną skalowalność i wyjątkowe korzyści związane z całkowitym kosztem posiadania. Okoliczności, które ukształtowały się wraz z pojawieniem się standardu FC-AL (Fibre Channel – Arbitrated Loop) i rozwijającej się na jego bazie sieci SAN (Storage Area Network), zapowiadają rewolucję w technologiach przetwarzania danych zorientowanych na dane.

„Najbardziej znaczący rozwój w dziedzinie pamięci masowej, jaki widzieliśmy od 15 lat”

Data Communications International, 21 marca 1998

Formalna definicja SAN w interpretacji Storage Network Industry Association (SNIA):

"Internet, główne zadanie czyli przesyłanie danych między systemami komputerowymi a urządzeniami pamięci masowej, a także między samymi systemami pamięci masowej. Sieć SAN składa się z infrastruktury komunikacyjnej, która zapewnia łączność fizyczną, a także z warstwy zarządzania, która integruje komunikację, pamięć masową i systemy komputerowe w celu zapewnienia bezpiecznego i niezawodnego przesyłania danych”.

Słownik techniczny SNIA, prawa autorskie Storage Network Industry Association, 2000

Opcje organizacji dostępu do systemów pamięci masowej

Istnieją trzy główne opcje organizacji dostępu do systemów pamięci masowej:

  • SAS (Server Attached Storage), pamięć podłączona do serwera;
  • NAS (Network Attached Storage), pamięć podłączona do sieci;
  • SAN (Storage Area Network), sieć pamięci masowej.

Rozważ topologie odpowiednich systemów pamięci masowej i ich funkcje.

SAS

System pamięci masowej podłączony do serwera. Znany, tradycyjny sposób łączenia systemu pamięci masowej z szybkim interfejsem w serwerze, zwykle równoległym interfejsem SCSI.

Rysunek 1. Pamięć masowa dołączona do serwera

Zastosowanie oddzielnej obudowy dla systemu pamięci masowej w topologii SAS jest opcjonalne.

Główną zaletą przechowywania podłączonego do serwera, w porównaniu z innymi opcjami, jest niska cena i wysoka wydajność w tempie jednego magazynu dla jednego serwera. Taka topologia jest najbardziej optymalna w przypadku wykorzystania pojedynczego serwera, za pośrednictwem którego zorganizowany jest dostęp do macierzy danych. Ale wciąż ma wiele problemów, które skłoniły projektantów do poszukiwania innych opcji organizacji dostępu do systemów przechowywania danych.

Funkcje SAS obejmują:

  • Dostęp do danych zależy od systemu operacyjnego i systemu plików (ogólnie);
  • Złożoność organizacji systemów o wysokiej dostępności;
  • Niska cena;
  • Wysoka wydajność w jednym węźle;
  • Zmniejszono szybkość odpowiedzi podczas ładowania serwera obsługującego pamięć masową.

NAS

System pamięci masowej podłączony do sieci. Ten wariant organizacji dostępu pojawił się stosunkowo niedawno. Jego główną zaletą jest wygoda zintegrowania dodatkowego systemu pamięci masowej z istniejącymi sieciami, ale sama w sobie nie przynosi radykalnych usprawnień w architekturze pamięci masowej. W rzeczywistości NAS jest czystym serwerem plików, a dziś można znaleźć wiele nowych implementacji pamięci masowej typu NAS opartych na technologii Thin Server.


Rysunek 2. Sieciowa pamięć masowa.

Funkcje NASa:

  • Dedykowany serwer plików;
  • Dostęp do danych jest niezależny od systemu operacyjnego i platformy;
  • Łatwość administracji;
  • Maksymalna łatwość instalacji;
  • Niska skalowalność;
  • Konflikt z ruchem LAN/WAN.

Pamięć masowa zbudowana przy użyciu technologii NAS to idealna opcja dla tanich serwerów z minimalnym zestawem funkcji.

SAN

Sieci magazynowe zaczęły się intensywnie rozwijać i wprowadzać dopiero od 1999 roku. Podstawą SAN jest odrębna od sieci LAN/WAN sieć, która służy do organizowania dostępu do danych z serwerów i stacji roboczych zajmujących się ich bezpośrednim przetwarzaniem. Sieć ta oparta jest na standardzie Fibre Channel, który daje systemom pamięci masowej korzyści technologii LAN/WAN oraz możliwość zorganizowania standardowych platform dla systemów o wysokiej dostępności i dużym zapotrzebowaniu. Prawie jedyną wadą dzisiejszych sieci SAN jest stosunkowo wysoki koszt komponentów, ale całkowity koszt posiadania systemów korporacyjnych zbudowanych przy użyciu technologii SAN jest dość niski.


Rysunek 3. Sieć pamięci masowej.

Do głównych zalet sieci SAN można zaliczyć prawie wszystkie jej cechy:

  • niezależność topologii SAN od systemów pamięci masowej i serwerów;
  • Wygodne scentralizowane zarządzanie;
  • Brak konfliktu z ruchem LAN/WAN;
  • Wygodny backup danych bez obciążania sieci lokalnej i serwerów;
  • Wysoka wydajność;
  • Wysoka skalowalność;
  • Wysoka elastyczność;
  • Wysoka dostępność i odporność na awarie.

Należy również zaznaczyć, że technologia ta jest jeszcze dość młoda iw niedalekiej przyszłości powinna przejść wiele usprawnień w zakresie standaryzacji zarządzania i metod interakcji pomiędzy podsieciami SAN. Ale można mieć nadzieję, że to tylko grozi pionierom dodatkowymi perspektywami na mistrzostwo.

FC jako podstawa do budowy sieci SAN

Podobnie jak sieć LAN, sieć SAN można utworzyć przy użyciu różnych topologii i mediów. Podczas budowy sieci SAN można zastosować zarówno równoległy interfejs SCSI, jak i Fibre Channel lub, powiedzmy, SCI (Scalable Coherent Interface), ale Fibre Channel swoją stale rosnącą popularność zawdzięcza SAN. W projekt tego interfejsu zaangażowani byli eksperci z dużym doświadczeniem w rozwoju zarówno interfejsów kanałowych, jak i sieciowych, i udało im się połączyć wszystkie ważne pozytywne cechy obu technologii, aby uzyskać coś naprawdę rewolucyjnego. Co dokładnie?

Główny kluczowe cechy kanał:

  • Małe opóźnienia
  • duże prędkości
  • Wysoka niezawodność
  • Topologia punkt-punkt
  • Małe odległości między węzłami
  • Zależność od platformy
i interfejsy sieciowe:
  • Topologie wielopunktowe
  • długie dystanse
  • Wysoka skalowalność
  • Niskie prędkości
  • Duże opóźnienia
połączone w Fibre Channel:
  • duże prędkości
  • Niezależność protokołu (poziomy 0-3)
  • długie dystanse
  • Małe opóźnienia
  • Wysoka niezawodność
  • Wysoka skalowalność
  • Topologie wielopunktowe

Tradycyjnie interfejsy pamięci masowej (to, co znajduje się między hostem a urządzeniami pamięci masowej) stanowiły barierę dla szybkości i rozwoju pamięci masowej. Jednocześnie stosowane zadania wymagają znacznego zwiększenia pojemności sprzętowej, co z kolei pociąga za sobą konieczność zwiększenia przepustowości interfejsów do komunikacji z systemami pamięci masowej. Fibre Channel pomaga rozwiązać właśnie problemy związane z budowaniem elastycznego, szybkiego dostępu do danych.

Standard Fibre Channel został ostatecznie zdefiniowany w ciągu ostatnich kilku lat (od 1997 do 1999), podczas których wykonano ogromną pracę w celu zharmonizowania interakcji producentów różnych komponentów i zrobiono wszystko, co konieczne, aby przekształcić Fibre Channel z technologii czysto koncepcyjnej w rzeczywistość, które otrzymały wsparcie w postaci instalacji w laboratoriach i centrach komputerowych. W 1997 roku zaprojektowano pierwsze komercyjne próbki podstawowych komponentów do budowy sieci SAN opartej na FC, takich jak adaptery, koncentratory, przełączniki i mosty. Tak więc już od 1998 roku FC jest wykorzystywany komercyjnie w biznesie, w produkcji iw dużych projektach do wdrażania systemów krytycznych dla awarii.

Fibre Channel to otwarty standard przemysłowy dla szybkiego interfejsu szeregowego. Zapewnia połączenie serwerów i systemów pamięci masowej na odległość do 10 km (przy użyciu standardowego sprzętu) z prędkością 100 MB/s (na targach Cebit „2000 zaprezentowano próbki produktów wykorzystujących nowy standard Fibre Channel z szybkością 200 MB/s na pierścień, a laboratoryjne implementacje nowego standardu już działają z szybkością 400 MB/s, czyli 800 MB/s w przypadku korzystania z podwójnego pierścienia). (W czasie pisania tego artykułu wielu dostawców zaczęło już dostarczać karty sieciowe i przełączniki FC 200 MB/s.) Fibre Channel obsługuje jednocześnie szereg standardowych protokołów (w tym TCP/IP i SCSI-3) przy użyciu jednego fizycznego medium, co potencjalnie upraszcza budowę infrastruktury sieciowej, ponadto daje możliwości obniżenia kosztów instalacji i utrzymania. Jednak używanie oddzielnych podsieci dla sieci LAN/WAN i SAN ma kilka zalet i jest zalecanym ustawieniem domyślnym.

Jedną z najważniejszych zalet Fibre Channel, obok parametrów prędkości (które nota bene nie zawsze są najważniejsze dla użytkowników SAN i mogą być realizowane przy użyciu innych technologii), jest możliwość pracy na duże odległości i elastyczność topologii , który wszedł do nowego standardu technologii sieciowych. Tym samym koncepcja budowy topologii sieci pamięci masowych opiera się na tych samych zasadach, co sieci tradycyjne, zwykle oparte na koncentratorach i przełącznikach, które pozwalają zapobiegać spadkom prędkości wraz ze wzrostem liczby węzłów i stwarzają możliwości wygodnej organizacji systemów bez pojedynczy punkt awarii.

Dla lepszego zrozumienia zalet i cech tego interfejsu przedstawiamy charakterystyka porównawcza FC i Parallel SCSI jako tabela.

Tabela 1. Porównanie technologii Fibre Channel i równoległych technologii SCSI

Standard Fibre Channel zakłada wykorzystanie różnorodnych topologii, takich jak punkt-punkt (Point-to-Point), hub pierścieniowy lub FC-AL (Loop lub Hub FC-AL), przełącznik szkieletowy (Fabric/Switch) .

Topologia punkt-punkt służy do łączenia pojedynczego systemu pamięci masowej z serwerem.

Pętla lub koncentrator FC-AL — do łączenia wielu urządzeń pamięci masowej z wieloma hostami. Podczas organizowania podwójnego pierścienia zwiększa się szybkość i tolerancja błędów systemu.

Przełączniki są stosowane w celu zapewnienia maksymalnej wydajności i odporności na awarie w złożonych, dużych i rozgałęzionych systemach.

Dzięki elastyczności sieci w SAN wbudowana jest niezwykle ważna cecha - wygodna możliwość budowania systemów fault-tolerant.

Oferując alternatywne rozwiązania pamięci masowej i możliwość łączenia wielu pamięci masowych w celu zapewnienia redundancji sprzętowej, sieć SAN pomaga chronić urządzenia i systemy oprogramowania przed awariami sprzętu. Aby zademonstrować, podamy przykład tworzenia systemu dwuwęzłowego bez punktów awarii.


Rysunek 4. Brak pojedynczego punktu awarii.

Budowa systemów z trzema lub więcej węzłami odbywa się po prostu poprzez dodanie dodatkowych serwerów do sieci FC i podłączenie ich do obu koncentratorów/przełączników).

Podczas korzystania z FC budowanie systemów odpornych na uszkodzenia staje się przejrzyste. Kanały sieciowe zarówno dla pamięci masowych, jak i sieci lokalnej mogą być układane w oparciu o światłowód (do 10 km lub więcej przy użyciu wzmacniaczy sygnału) jako fizyczny nośnik dla FC, przy użyciu standardowego wyposażenia, co pozwala znacznie obniżyć koszty takich systemy.

Dzięki możliwości dostępu do wszystkich komponentów sieci SAN z dowolnego miejsca w sieci SAN, dysponujemy niezwykle elastyczną siecią danych do zarządzania. Jednocześnie należy zauważyć, że SAN zapewnia przejrzystość (możliwość zobaczenia) wszystkich komponentów aż po dyski w systemach pamięci masowej. Ta funkcja skłoniła producentów komponentów do wykorzystania ich znacznego doświadczenia w budowaniu systemów zarządzania LAN/WAN w celu wbudowania rozbudowanych możliwości monitorowania i kontroli we wszystkie komponenty SAN. Możliwości te obejmują monitorowanie i zarządzanie poszczególnymi węzłami, pamięcią komponentów, obudowami, urządzeniami sieciowymi i podstrukturami sieci.

System zarządzania i monitorowania SAN wykorzystuje otwarte standardy takie jak:

  • Zestaw poleceń SCSI
  • Usługi obudów SCSI (SES)
  • SCSI Self Monitoring Analysis and Reporting Technology (S.M.A.R.T.)
  • SAF-TE (obudowy odporne na uszkodzenia z dostępem do SCSI)
  • Prosty protokół zarządzania siecią (SNMP)
  • Zarządzanie przedsiębiorstwem przez Internet (WBEM)

Systemy budowane z wykorzystaniem technologii SAN dają administratorowi nie tylko możliwość monitorowania rozwoju i stanu zasobów pamięci masowej, ale także otwierają możliwości monitorowania i kontrolowania ruchu. Dzięki tym zasobom oprogramowanie do zarządzania siecią SAN wdraża najbardziej wydajne schematy planowania pamięci masowej i równoważenia obciążenia dla składników systemu.

Sieci SAN są doskonale zintegrowane z istniejącą infrastrukturą informatyczną. Ich realizacja nie wymaga żadnych zmian w istniejących sieci LAN i WAN, ale tylko zwiększa możliwości istniejących systemów, zwalniając je z zadań związanych z transmisją duże ilości dane. Ponadto podczas integracji i administrowania siecią SAN bardzo ważne jest, aby kluczowe elementy sieci obsługiwały wymianę i instalację podczas pracy, z możliwością dynamicznej konfiguracji. Administrator może więc dodać ten lub inny komponent lub wymienić go bez wyłączania systemu. A cały proces integracji można zwizualizować w graficznym systemie zarządzania SAN.

Biorąc pod uwagę powyższe zalety, możemy wyróżnić kilka kluczowych punktów, które bezpośrednio wpływają na jedną z głównych zalet Storage Area Network - całkowity koszt posiadania (Total Cost Ownership).

Niesamowita skalowalność pozwala przedsiębiorstwu korzystającemu z sieci SAN inwestować w serwery i pamięć masową w razie potrzeby. A także oszczędzaj swoje inwestycje w już zainstalowany sprzęt przy zmianie generacji technologicznych. Każdy nowy serwer będzie miał szybki dostęp do pamięci masowej, a każdy dodatkowy gigabajt pamięci będzie dostępny dla wszystkich serwerów w podsieci na polecenie administratora.

Ogromne możliwości budowania systemów odpornych na uszkodzenia mogą przynieść bezpośrednie korzyści komercyjne w postaci minimalizacji przestojów i ratowania systemu w przypadku klęski żywiołowej lub innego kataklizmu.

Łatwość zarządzania komponentami i przejrzystość systemu dają możliwość centralnego administrowania wszystkimi zasobami pamięci masowej, a to z kolei znacznie obniża koszty ich obsługi, których koszt z reguły przekracza 50% kosztów sprzęt.

Wpływ SAN na aplikacje

Aby wyjaśnić naszym czytelnikom, jak praktyczne są omawiane w tym artykule technologie, podamy kilka przykładów zastosowanych problemów, które bez użycia sieci pamięci masowej zostałyby rozwiązane nieefektywnie, wymagałyby ogromnych nakładów finansowych lub nie zostałyby rozwiązane w ogóle standardowymi metodami.

Tworzenie kopii zapasowych i przywracanie danych (Kopia zapasowa i odzyskiwanie danych)

Korzystając z tradycyjnego interfejsu SCSI, użytkownik napotyka szereg złożonych problemów podczas budowania systemów tworzenia kopii zapasowych i odzyskiwania danych, które można bardzo łatwo rozwiązać za pomocą technologii SAN i FC.

Tym samym wykorzystanie sieci storage przenosi rozwiązanie problemu backupu i odtwarzania na nowy poziom i zapewnia możliwość kilkukrotnie szybszego backupu niż dotychczas, bez obciążania sieci lokalnej i serwerów pracą nad backupem danych.

Klastrowanie serwerów

Jednym z typowych zadań, do których efektywnie wykorzystuje się sieć SAN, jest klastrowanie serwerów. Ponieważ jednym z kluczowych punktów w organizowaniu szybkich systemów klastrowych, które pracują z danymi, jest dostęp do pamięci masowej, wraz z pojawieniem się sieci SAN budowanie klastrów wielowęzłowych na poziomie sprzętowym jest rozwiązywane przez proste dodanie serwera podłączonego do sieci SAN (to można to zrobić nawet bez wyłączania systemu, ponieważ przełączniki FC obsługują funkcję hot-plug). Z równoległym interfejsem SCSI, który ma znacznie gorszą łączność i skalowalność niż FC, klastry zorientowane na dane byłyby trudne do stworzenia z więcej niż dwoma węzłami. Równoległe przełączniki SCSI są bardzo złożonymi i drogimi urządzeniami, a dla FC jest to standardowy element. Aby stworzyć klaster, który nie będzie miał ani jednego punktu awarii, wystarczy zintegrować z systemem lustrzaną sieć SAN (technologia DUAL Path).

W ramach klastrowania jedna z technologii RAIS (Redundant Array of Inexpensive Servers) wydaje się być szczególnie atrakcyjna do budowy potężnych, skalowalnych systemów handlu internetowego i innych rodzajów zadań o zwiększonym zapotrzebowaniu na moc. Według Alistaira A. Crolla, współzałożyciela firmy Networkshop Inc, korzystanie z RAIS jest dość efektywne: „Na przykład za 12 000-15 000 USD można kupić około sześciu niedrogich jedno-dwuprocesorowych (Pentium III) serwerów Linux/Apache. Moc, skalowalność i odporność na awarie takiego systemu będą znacznie wyższe niż na przykład pojedynczego czterogniazdowego serwera opartego na procesorach Xeon, a koszt jest taki sam.”

Jednoczesny dostęp do wideo i udostępnianie danych (równoczesne przesyłanie strumieniowe wideo, udostępnianie danych)

Wyobraź sobie zadanie, w którym musisz edytować wideo na kilku (powiedzmy > 5) stacjach lub po prostu pracować na ogromnych danych. Przesłanie pliku 100 GB przez sieć lokalną zajmie Ci kilka minut, a ogólna praca nad nim będzie bardzo trudnym zadaniem. W przypadku korzystania z sieci SAN każda stacja robocza i serwer sieciowy uzyskuje dostęp do pliku z szybkością odpowiadającą szybkiemu lokalnemu dyskowi. Jeśli potrzebujesz kolejnej stacji/serwera do przetwarzania danych, możesz dodać ją do sieci SAN bez wyłączania sieci, po prostu podłączając stację do przełącznika SAN i przyznając jej prawa dostępu do pamięci masowej. Jeśli nie jesteś już zadowolony z szybkości podsystemu danych, możesz po prostu dodać jeszcze jedną pamięć i zastosować technologię dystrybucji danych (na przykład RAID 0), aby uzyskać dwukrotnie większą prędkość.

Podstawowe komponenty SAN

Środa

Do łączenia komponentów w standardzie Fibre Channel wykorzystywane są kable miedziane i optyczne. Oba typy kabli mogą być używane jednocześnie podczas budowy sieci SAN. Konwersja interfejsu odbywa się za pomocą GBIC (Gigabit Interface Converter) oraz MIA (Media Interface Adapter). Oba typy kabli zapewniają dziś taką samą szybkość przesyłania danych. Kabel miedziany jest używany na krótkie odległości (do 30 metrów), optyczny - zarówno na krótkie odległości, jak i na odległości do 10 km lub więcej. Użyj wielomodowych i jednomodowych kabli optycznych. Kabel wielomodowy jest używany na krótkich dystansach (do 2 km). Wewnętrzna średnica włókna kabla wielomodowego wynosi 62,5 lub 50 mikronów. Dla szybkości transmisji 100 Mb/s (200 Mb/s dupleks) przy zastosowaniu światłowodu wielomodowego długość kabla nie powinna przekraczać 200 metrów. Kabel jednomodowy jest używany na duże odległości. Długość takiego kabla jest ograniczona mocą lasera zastosowanego w nadajniku sygnału. Światłowód jednomodowy ma średnicę wewnętrzną 7 lub 9 mikronów, co pozwala na przejście pojedynczej wiązki.

Złącza, adaptery

Do podłączenia przewodów miedzianych stosuje się złącza typu DB-9 lub HSSD. HSSD jest uważany za bardziej niezawodny, ale DB-9 jest używany równie często, ponieważ jest prostszy i tańszy. Standardowym (najbardziej powszechnym) złączem kabli optycznych jest złącze SC, które zapewnia wysokiej jakości, wyraźne połączenie. Wielomodowe złącza SC są używane do normalnego połączenia, a złącza jednomodowe do zdalnego połączenia. Adaptery wieloportowe wykorzystują mikrozłącza.

Najpopularniejsze adaptery do magistrali FC PCI 64 bit. Produkowanych jest również wiele adapterów FC dla magistrali S-BUS, do zastosowań specjalistycznych produkowane są adaptery do MCA, EISA, GIO, HIO, PMC, Compact PCI. Najpopularniejsze są karty jednoportowe, występują karty dwu- i czteroportowe. NA adaptery PCI z reguły należy stosować złącza DB-9, HSSD, SC. Powszechne są również adaptery oparte na GBIC, które są dostarczane z modułami GBIC lub bez. Adaptery Fibre Channel różnią się obsługiwanymi klasami i różnymi funkcjami. Aby zrozumieć różnice, przedstawiamy tabelę porównawczą adapterów produkowanych przez firmę QLogic.

Wykres rodziny adapterów magistrali hosta Fibre Channel
SANblade64-bitowyPublikacja FCAL. Pvt PętlaPort FLklasa 3Port Fklasa 2punkt do punktuIP/SCSIpełny dupleksTaśma FCSpecyfikacja PCI 1.0 Hot PlugDynamiczna rekonfiguracja SolarisaWIB2 GB
Seria 2100PCI 33 i 66 MHzXXX
Seria 2200PCI 33 i 66 MHzXXXXXXXXX
PCIe 33MHzXXXXXXXXXX
Magistrala 25 MHzXXXXXXXXX X
Seria 230066 MHZ PCI/ 133 MHZ PCI-XXXXXXXXXX XX

Piasty

Koncentratory (koncentratory) Fibre Channel służą do łączenia węzłów z pierścieniem FC (FC Loop) i mają strukturę podobną do koncentratorów Token Ring. Ponieważ przerwa w pierścieniu może doprowadzić do awarii sieci, nowoczesne koncentratory FC wykorzystują porty obejścia pierścienia (obwód obejścia portu PBC), które umożliwiają automatyczne otwieranie/zamykanie pierścienia (łączenie/rozłączanie systemów podłączonych do koncentratora). Zwykle koncentratory FC obsługują do 10 połączeń i mogą układać w stos do 127 portów na pierścień. Wszystkie urządzenia podłączone do HUB-a otrzymują wspólną przepustowość, którą mogą współdzielić między sobą.

Przełączniki

Przełączniki Fibre Channel (przełączniki) mają te same funkcje, co znane czytelnikowi przełączniki LAN. Zapewniają pełną prędkość, nieblokującą łączność między węzłami. Każdy węzeł podłączony do przełącznika FC otrzymuje pełną (ze skalowalnością) przepustowość. Wraz ze wzrostem liczby portów w sieci przełączanej wzrasta przepustowość. Przełączniki mogą być używane w połączeniu z koncentratorami (które są używane w witrynach, które nie wymagają dedykowanej przepustowości na węzeł). optymalny stosunek cena/wydajność. Dzięki kaskadowaniu przełączniki mogą być potencjalnie wykorzystywane do tworzenia sieci FC z 2 24 adresami (ponad 16 milionów).

Mosty

Mostki FC (mosty lub multipleksery) służą do łączenia równoległych urządzeń SCSI z siecią opartą na FC. Zapewniają translację pakietów SCSI między urządzeniami Fibre Channel i Parallel SCSI, których przykładami są dyski półprzewodnikowe (SSD) lub biblioteki taśmowe. Warto zauważyć, że w ostatnim czasie producenci zaczynają produkować prawie wszystkie urządzenia, które można utylizować w ramach sieci SAN, z wbudowanym interfejsem FC do bezpośredniego podłączenia do sieci pamięci masowej.

Serwery i pamięć masowa

Pomimo faktu, że serwery i pamięć masowa są dalekie od najmniej ważnych elementów sieci SAN, nie będziemy rozwodzić się nad ich opisem, ponieważ jesteśmy pewni, że wszyscy nasi czytelnicy są z nimi zaznajomieni.

Na koniec chciałbym dodać, że ten artykuł to dopiero pierwszy krok w kierunku sieci pamięci masowej. Dla pełnego zrozumienia tematu czytelnik powinien zwrócić dużą uwagę na specyfikę implementacji komponentów przez producentów SAN i narzędzia oprogramowania zarządzania, bo bez nich Storage Area Network to tylko zestaw elementów do przełączania systemów storage, który nie przyniesie Ci pełnych korzyści z wdrożenia sieci storage.

Wniosek

Dziś Storage Area Network jest dość Nowa technologia, które już wkrótce mogą stać się masą wśród klientów korporacyjnych. W Europie i Stanach Zjednoczonych przedsiębiorstwa, które mają dość dużą flotę zainstalowanych systemów pamięci masowej, już zaczynają migrować do sieci pamięci masowych w celu zapewnienia najlepszego całkowitego kosztu posiadania.

Analitycy przewidują, że w 2005 roku znaczna liczba serwerów średniej i wyższej klasy będzie dostarczana z preinstalowanym interfejsem Fibre Channel (ten trend można zaobserwować już dziś), a do wewnętrznego łączenia dysków używany będzie tylko równoległy interfejs SCSI serwery. Już dziś budując systemy pamięci masowych i nabywając serwery średniego i wyższego poziomu należy zwrócić uwagę na tę obiecującą technologię, tym bardziej, że dziś umożliwia ona realizację wielu zadań znacznie taniej niż przy użyciu specjalistycznych rozwiązań. Ponadto inwestowanie w technologię SAN dzisiaj nie spowoduje utraty inwestycji jutro, ponieważ funkcje Fibre Channel stwarzają ogromne możliwości wykorzystania dzisiejszych inwestycji w przyszłości.

PS

Poprzednia wersja artykułu powstała w czerwcu 2000 roku, jednak ze względu na brak masowego zainteresowania technologią SAN, publikację odłożono na przyszłość. Ta przyszłość jest dzisiaj i mam nadzieję, że ten artykuł zachęci czytelnika do uświadomienia sobie potrzeby przejścia na technologię sieciową jako obszar pamięci masowej Zaawansowana technologia budowanie systemów przechowywania i organizowanie dostępu do danych.

Podobne posty