Zavřít
Wprowadź Śledź nas

3S.cz

Sekcja specjalistyczna

Macierz dyskowa - wydajność?

01.03.2012, 12:08

Częstym pytaniem przed wybraniem macierzy dyskowej bywa wymóg porównania wydajności. Niestety w związku z tym odwraca się uwagę od pytania „jakie są wymagane parametry całego projektu“ w porównaniu danych marketingowych. Na parametry wydajności macierzy dyskowych ma wpływ wiele czynników i ostatecznie ani same parametry wydajności nie muszą mieć bezpośredniego powiązania z wydajnością aplikacji. rnJak to właściwie jest?

Wydajność? A pod jakim warunkiem?
  • Z reguły RAID dochodzi do rozłożenia danych przez wszystkie biorące w tym udział dyski z grupy RAID. W takim razie pierwszy czynnik mówi, że wydajność będzie ściśle zależała właśnie od ilości dysków zestawu Raid.
  • Nie musí za wszelką cenę obowiązywać reguła, że im więcej dysków w zestawie Raid, tym lepiej. Z mała ilością dysków jest właśnie blokadą ta mała ilość, z dużą ilością dysków rosną obliczeniowe koszty kontrolerów.  
  • Poza tym mamy różne typy RAID z różnymi właściwościami i różnymi kosztami obliczeniowymi.
 Strip size? Block Size? Segmentacja pamięci podręcznej?
  • Aby tego było mało, każda przestrzeń adresowa na dyskach jest rozdzielona na bloki i ze segmentacją pracuje również system plików w ramach systemu operacyjnego. Już w trakcie wdrażania macierzy trzeba wziąć to pod uwagę. Jednym słowem – poprzez nastawienie tych parametrów predestynujemy, jeśli dana przestrzeń będzie optymalizowana w stosunku do aplikacji o charakterze bazy danych, czy na przeciwnym końcu spektrum do aplikacji o charakterze streamu.
  • Macierze oprócz segmentacji na poziomie dysku pracują również ze segmentacją buforu – pamięci podręcznej. Dlatego, że u większości sprzedawców macierzy jest to na stało dana wartość, zbyt wiele się o tej właściwości nie mówi. A przy tym właśnie segmentacja pamięci podręcznej w kontekście aplikacji świadczy o tym, jak skutecznie jest wykorzystywana pamięć podręczna! Idealną sytuacją jest, kiedy segmentacje pamięci podręcznej można zdefiniować
Dla wyjaśnienia:

Zasadniczo każda macierz pracuje ze segmentacją wewnętrznej pamięci podręcznej. Optymalny rozmiar nastawienia segmentacji różni się pod względem wykorzystania danej objętości dla danych celów. Możliwość zdefiniowania segmentacji oznacza zagwarantowanie QoS (Quality of Service – jakości usługi) krytycznych aplikacji.

Np. jeśli segment pamięci podręcznej będzie zdefiniowany na 65 kB, tak ta objętość będzie posiadała optymalne parametry wydajności dla plików, streamów itp. Jeśli na tak segmentowanej pamięci podręcznej będzie działała Oracle, która pracuje ze segmentami 4 kB, tak potem faktyczne wykorzystanie wielkości pamięci podręcznej będzie 6,2% Zdefiniowanie segmentacji dla danych LUN pod względem ich wykorzystania w bardzo skuteczny sposób rozwiązuje ten oto problem.

Wykorzystanie podziału pamięci podręcznej w celu nastawienia wydajności systemów dyskowych.

MB/s albo IOPS?
  • Z punktu widzenia jednego strumienia (streamu) danych są macierze SATA i SAS (FC) zdolne pracować ze względnie podobnymi prędkościami transmisji. Całkowicie odwrotna sytuacja nastaje u przypadkowego działania, gdzie obszary szybkich dysków SAS i FC zupełnie i to w zasadniczy sposób opanowują obszary SATA.
  • Warto by się również zastanowić nad tym, co to jest działanie z charakterem strumieni (streamów). W obecnych środowiskach już niemal nie znajdziemy systemów, które by względem zestawu Raid na macierzy generowały prosty strumień (stream) – a ostatecznie więcej prostych danych względem macierzy przedstawia na koniec przypadkowe działanie.
  • Jest tu również fenomen wirtualizacji, gdzie w przypadku Vmware jest hipernadzorca optymalizowany wydajnościowo i potrafi faktycznie wykorzystać możliwości macierzy.
Podsumowując:

fenomen MB/s zaczyna tracić na znaczeniu i każda aktualna macierz ma w trakcie jednostrumieniowego (single stream) działania zdolność transmisji setki MB/s. Tym istotnym parametrem zaczyna być ilość operacji wejścia-wyjścia (Input Output) za sekundę  - IOPs, które jest zdolne macierz obsłużyć. A to w dużym stopniu zależy od tego, jaka na końcu będzie wydajność kompleksowego środowiska.

Objektywny pomiar

Określone wyobrażenie o tym, ile są „warte“ poszczególne macierze, można sobie zrobić na podstawie niezależnej analizy SPC.

Przedstawiony pomiar nie musí całkowicie się zgadzać z pomiarami poszczególnych producentów, wszystko zależy od definicji testów i każdy producent sobie wymogi testów wybiera w ten sposób, aby pokazały jego produkt w dobrym świetle. Aczkolwiek jest istotne, że wszystkie zaprezentowane systemy w testach porównywania pod tymi samymi warunkami zdefiniowanymi SPC-1 zdały. Bynajmniej nie wartość absolutna, ale względne porównanie poszczególnych systemów jest namacalnym argumentem.

Uwagi:
  • żółta wartość: wydajność mierzona według SPC-1 w IOPS
  • zielona wartość: bardziej praktyczny wskaźnik, do wyników są dodane tylko IO obsłużone macierzą pod 5ms.     

Firma 3S.cz jest partnerem firmy Hitachi Data Systems. Macierze Hitachi AMS2100, AMS2300, AMS2500 należą w swoich klasach do technologicznego i wydajnościowego maksimum. To w dużym stopniu wiąże się z tym, że te oto produkty są stosunkowo młode i były wprowadzone na rynek na przełomie roku 2008/2009 i dzięki temu chodzi o produkty, w których są wdrażane najbardziej nowoczesne technologie.

Warto również wspomnieć o systemie USP by HITACHI. Oprócz tego – jako że dyskowe systemy Enterprise – mają nieporównywalnie wyższe parametry, dały również radę 100% operacji IO obsłużyć pod granicą 5ms.

Jest przyjęte, że porównujemy cenę zapisanych danych w kontekście ceny za Gigabyte. Aczkolwiek wraz z fenomenem wirtualizacji zaczyna nabierać na znaczeniu również wyrażenie ceny za wydajność! Poniekąd w uproszczonym pojęciu ta jednostka oznacza (czym jest bardziej kompleksowe środowisko, tym ma większe znaczenie), jakie inwestycje trzeba przeznaczyć na obsłużenie wymaganej objętości wymogów handlowych.