Storage wczoraj, dziś i jutro…

0

Rozmowa z Clodem Barrerą, dyrektorem odpowiedzialnym za strategię techniczną w dziale Storage Systems Group w IBM-ie

Storagefocus: Koncepcje i kształt budowanych systemów pamięci masowych zmienia się co kilka lat. Dziś wydaje się, że historia zatoczyła koło, bo znów powoli zaczynamy zwracać uwagę na lepsze wykorzystanie pojemności, zamiast na wydajność. Na jakim etapie się obecnie znajdujemy?

Clod Barrera: Zacznijmy od tego jaką sytuację mamy obecnie w urządzeniach, bo to one wpływają na kształt całych rozwiązań. Twarde dyski są coraz tańsze, ale już nie tak bardzo, jak się tego spodziewał rynek. Tymczasem wymagania rosną – zarówno odnośnie coraz większych pojemności, jak też coraz niższych cen. I rzeczywiście – w ten sposób historia zatoczyła koło. W latach 70. dbano o każdy bit w swoich pamięciach masowych, zarządzano nimi we właściwy sposób i pilnowano, aby utylizacja była na odpowiednio wysokim poziomie. Kilkanaście lat później – mimo że danych do przechowania było znacznie więcej – duży spadek cen spowodował, że utylizacja rzadko kiedy przekraczała 10%, nawet w sieciach SAN, gdzie bardziej skupiono się na wydajności, a nie na utylizacji. Dziś wracamy do tamtych dawnych dni, gdzie administratorzy znów zaczynają martwić się o to, jak dobrze wykorzystane są zasoby ich pamięci masowych, tworząc między innymi wiele warstw pamięci masowych z twardymi dyskami o różnej wydajności, a zależności od potrzeb biznesowych oraz taśmami do archiwizacji.

Storagefocus: Czy nie jest tak, że doszło trochę do paradoksu, gdzie twarde dyski są zbyt pojemne w stosunku do swojej wydajności?

Clod Barrera: Dokładnie tak. W kontekście urządzeń bardzo ważna stała się wydajność, liczona w operacjach wejścia-wyjścia na sekundę (IOPS), przez długi okres czasu dość „płaska” i prawdopodobnie jeszcze długo taką pozostanie. Więc jeśli myślimy o rośnięciu twardych dysków w pojemności, ale nie wydajności, to w efekcie spada nam współczynnik IOPS/GB. To głównie z tego powodu zdecydowano się na głębsze zainteresowanie dyskami SSD. Więc jeśli mogę dostać tylko 150-200 IOPS na zwykły twardy dysk, a moja baza danych – i to wcale nie największa – wymaga 30 tys. IOPS, to potrzebuję 200 dysków, aby uzyskać taką wydajność. A co w przypadku, gdy taka baza ma tylko 1 lub 2 TB pojemności? Na każdym dysku będzie zapisanych 5-10 GB danych, więc poziom ich utylizacji będzie bardzo niski i to wcale nie z powodu nieumiejętnego zarządzania. To jest główny segment zastosowań dla dysków SSD.

Storagefocus: Kiedy więc dyski SSD wejdą do masowego użycia w profesjonalnych systemach storage. Producenci dużo na ten temat mówią, ale do samego problemu podchodzą dość nieśmiało…

Clod Barrera: Dyski SSD są dziś bardzo drogie – ok. 60 razy droższe od dysków twardych. Ale napędy SSD będą taniały, zaś gdy okaże się, że zamiast 200 twardych dysków potrzebujemy dwóch lub czterech dysków SSD, bo tak mała liczba spełni nasze wymagania odnośnie pojemności i wydajności, to i tak wyjdzie to na korzyść tych ostatnich. Trudno jednak spodziewać się, że twarde dyski będą całkowicie wyparte przez SSD w najbliższym czasie, chociaż nie da się tego całkowicie wykluczyć. Mówi się o zapowiadanym coraz szybszym wprowadzeniu na rynek pamięci flash MLC (Multi-Level Cell), ale one też mają wiele wad. Już w pamięciach SLC były problemy związane z trwałością, a w przypadku MLC problem ten się pogłębia. Więc nie jest obecnie oczywiste, że flash stanie się naturalnym następcą obrotowych twardych dysków. Są też inne technologie Solid State, którym warto się przyjrzeć, np. związane ze zmianą fazy komórek pamięci. Ale ich wprowadzenie do masowej produkcji to okres ok. 5 lat. Natomiast jeśli producenci nie poradzą sobie z trwałością zapisu w MLC, to będą musieli skorzystać z innych technologii.

Storagefocus: Jaka jest dziś obecnie rola oprogramowania do zarządzania pamięciami masowymi?

Clod Barrera: Dziś środowiska są zbyt skomplikowane, aby zarządzać nimi ręcznie. Więc jeśli chcemy uzyskać wysoki poziom utylizacji, gwarancję umieszczenia wszystkich danych na właściwych nośnikach w ramach stworzonych warstw, to aby zagwarantować właściwy poziom usług dla aplikacji, wszystko to musi dziać się automatycznie. Nie ma szans, aby grupa ludzi robiła to wszystko ręcznie. Więc także tutaj – podobnie jak we wspomnianych wcześniej latach 70. i 80. – gdy chcemy uzyskać lepszy poziom utylizacji, musimy zdecydowanie więcej uwagi poświęcać oprogramowaniu do zarządzania pamięciami masowymi. Widzimy, że coraz więcej klientów automatyzuje swoje środowiska, wdraża oprogramowanie do zarządzania migracją danych i zapewniania jakości świadczonych usług, a także integracji serwerów i pamięci masowych w jedno centralnie zarządzane rozwiązanie, często zwirtualizowane.

Storagefocus: Hitowy temat ostatnich miesięcy to ekologia. Czy w przypadku pamięci masowych możemy wiele zrobić, aby obniżyć poziom poboru energii elektrycznej?

Clod Barrera: W USA jest wiele centrów danych, którym elektrownie odmówiły zwiększenia przydziału mocy – tam szefowie działów IT muszą zastanowić się jak efektywnie skonsolidować posiadane środowiska oraz jak zmodernizować system klimatyzacji, aby działał bardziej efektywnie. Dziś widzimy coraz więcej technologii, które pomagają nam w tym. Pojawiają się systemy wyłączające nieużywane twarde dyski, chociaż nie uważam tego za zbyt użyteczne rozwiązanie, ponieważ w ten sposób dyski stają się niejako taśmami stojącymi na półce, zaś taśmy są zdecydowanie tańsze. Z pewnością skuteczniejsze jest aktywne zarządzanie utylizacją pamięci masowych, bardzo pomaga wirtualizacja, a także posiadanie wspomnianych wielu warstw pamięci masowych. Dla przykładu – dyski o 15 tys. obrotach na minutę pobierają 30-40% więcej energii niż dyski 7200 RPM. Więc jeśli naprawdę nie potrzebujemy tak szybkich dysków, to bardzo szybko można osiągnąć znaczne oszczędności.

Storagefocus: Jedną z technologii przechowywania danych, o których mówi się ostatnio jako o tej, której dni być może są policzone, są taśmy. IBM jest członkiem LTO Consortium, ale jednocześnie ma w swojej ofercie taśmy do zastosowań bardzo zaawansowanych. Jak wygląda przyszłość tych dwóch technologii i czy mają one szansę spotkać się w pewnym momencie?

Clod Barrera: Niektórzy twierdzą, że już się spotkały. W tej chwili mamy dwie linie produktów taśmowych – LTO w generacji czwartej i własny standard liniowego zapisu. Ale w obu produktach są wykorzystywane podobne technologie, bazują na podobnej koncepcji głowicy zapisująco-odczytującej czy składu magnetycznego powłoki taśm. Z pewnością obie technologie będą obecne na rynku jeszcze przez wiele lat równolegle ze względu na ogromną liczbę zainstalowanych urządzeń i aplikacji współpracujących, szczególnie w mainframe’ach zSystem, które wymagają półcalowej taśmy liniowej Magstar. Więc z pewnością będziemy dostarczać te produkty przez pewien czas. Ale funkcjonalność obu standardów rzeczywiście staje się podobna – w obu mamy szyfrowanie (chociaż zarządzanie kluczami odbywa się w nieco inny sposób) czy zapis tylko do odczytu (WORM).

Storagefocus: Co z pamięciami holograficznymi, o których IBM mówi już od dłuższego czasu?

Clod Barrera: Holografia to technologia przyszłości, przyglądamy się jej już od dłuższego czasu. Problemem z holografią jest to, że w kontekście wydajności, możliwości produkcji i niezawodności nie jest jeszcze wystarczająco dojrzała. Ale bardzo aktywnie nad tym pracujemy. Widzimy, że gdy osiągniemy pewien poziom dojrzałości, otrzymamy bardzo pojemne nośniki. Ale na razie czasy przenoszenia informacji pomiędzy warstwami kryształu są bardzo wolne, czas zapisu jest wolny, trwałość zapisu w krysztale nie jest zadowalająca. Trudno w tej chwili przewidzieć czas, kiedy ta technologia mogłaby się pojawić, ale z pewnością jest liczony w latach, a nie w miesiącach. Generalnie wygląda to tak, że po zademonstrowaniu działającego zgodnie z naszymi oczekiwaniami prototypu, potrzeba ok. 5 lat, żeby wprowadzić je na rynek. Przez ten czas pracujemy nad stworzeniem linii produkcyjnej, analizujemy kwestie związane z pojemnościami nośników, przygotowujemy odpowiednie oprogramowanie. Ale ten okres 5 lat nie zaczął się jeszcze dla holografii.

Storagefocus: Z reguły bardzo ciekawe są dyskusje o wirtualizacji, ponieważ każda z firm postrzega wirtualizację pamięci masowych w nieco inny sposób. Dlaczego tak się dzieje? Jak to wygląda w przypadku IBM-a?

Clod Barrera: Przede wszystkim należy zastrzec, że mówimy tu o wirtualizacji na poziomie bloków, bo wirtualizacja na poziomie plików oznacza zupełnie co innego. Dla mnie idea wirtualizacji oznacza separację fizycznych pamięci masowych przechowujących dane od logicznego adresowania przez aplikację lub middleware, który korzysta z danych. Więc jeśli mamy środowisko wirtualne w systemie plików, baz danych lub aplikacji, to mówimy, że to jest wirtualny obraz dysku, chcę mieć do niego dostęp, odczytywać dane, zapisywać itd. Natomiast nie obchodzi mnie gdzie fizycznie ten dysk się znajduje i czy w rzeczywistości jest to tylko jeden napęd. To jest wirtualizacja i oczywiście można ją zrealizować na wiele różnych sposobów. Możemy mieć menedżery woluminów logicznych w serwerach, możemy mieć translację adresów w przełącznikach SAN, można mieć Inline Appliance, którym jest nasz SAN Volume Controller lub można mieć macierze dyskowe, które pozwalają na dołączanie innych macierzy dyskowych i wprowadzenie dodatkowej warstwy, która przenosi dane między nimi. Ta ostatnia funkcjonalność nie jest na razie dostępna w Fibre Channel, ponieważ istnieją pewne różnice w adresowaniu portów. Jest taka możliwość w iSCSI i wielu producentów oferuje taką możliwość w swoich macierzach.

Storagefocus: Jakie są wady i zalety tych poszczególnych metod?

Clod Barrera: Wirtualizacja w przełącznikach SAN nie opłaca się i wyjaśnię dlaczego. Oprócz tego, że chcemy mieć dostęp do wirtualnego obrazu, chcemy mieć możliwość wykonania kopii tego wirtualnego dysku. Chcemy robić kopie migawkowe, kopie zdalne – wszystko, co jest związane z replikacją tego wirtualnego dysku. Jeśli robimy wirtualizację w przełączniku, nie mamy wystarczająco dużo inteligencji w nim, aby wykonać te operacje poprawnie. Niektóre firmy próbują to robić, np. Invista w EMC robi to w przełącznikach Cisco czy Brocade’a, ale te rozwiązania nie są stosowane produkcyjnie. Są trudne w obsłudze i mają ograniczoną funkcjonalność.

Menedżery woluminów logicznych są użyteczne, ale wykonują wirtualizację w pewnej ograniczonej skali. Przykładem takiego rozwiązania jest Veritas Logical Volume Manager – technologia, która przychodzi z hypervisorem, takim jak warstwa wirtualizująca w VMware czy Xen. Każda migracja z jednej macierzy na drugą musi odbywać się poprzez serwer aplikacyjny, a więc jest odbywa się ogromnym kosztem wydajności.

Naszym zdaniem – i z tą opinią zgadza się większość analityków – jedynym rozwiązaniem klasy produkcyjnej dla przedsiębiorstw, szeroko stosowanym, jest wirtualizacja blokowa poprzez SAN Volume Controller. To dziś najbardziej rozpowszechniony system blokowej wirtualizacji na świecie.

Storagefocus: Wiele krajów wciąż zwraca ogromną uwagę na cenę, nie tylko zakupu, ale także przechowywania danych. Ostatnio archiwiści z Hollywood opublikowali raport, gdzie mówią, że przechowywanie starych filmów w cyfrowym formacie jest 11-krotnie droższe niż w tradycyjny sposób, przechowując taśmy w starych kopalniach soli. Co firmom z takimi problemami możecie zaoferować jako jeden z głównych dostawców na rynku pamięci masowych?

Clod Barrera: Widzę tu dwie odpowiedzi. Ta 11-krotna różnica w ciągu pięciu lat zredukuje się do dwukrotnej, a za 8 lat będzie równa. Krzywa kosztu technologii cyfrowych cały czas idzie w dół, zaś koszt przechowywania danych w tradycyjny sposób jest stały, a chyba nawet nieznacznie rośnie, biorąc pod uwagę koszt elektryczności i klimatyzacji. Druga odpowiedź: proszę pamiętać o ogromnym wzroście funkcjonalnym przechowywania cyfrowego. Gdy mam dane zarchiwizowane na taśmie, wstawiam ją do magazynu i staram się wyjmować jak najrzadziej, bo to obniża ich trwałość. Więc mam te dane, ale możliwość ich użycia jest bardzo ograniczona. Gdy mam je w cyfrowej postaci, mogę je dystrybuować, przetwarzać w bardzo łatwy sposób i dzięki temu uzyskiwać dodatkowe przychody finansowe, a przez to także zmniejszać tą różnicę w kosztach przechowywania.

Storagefocus: Idealny przepis na archiwizację danych?

Clod Barrera: Nad tym obecnie bardzo dużo pracujemy. Niedługo będziemy ogłaszać wiele nowych produktów w tym zakresie – sprzętu i oprogramowania. Generalna odpowiedź jest jedna – musimy tworzyć wiele informacji o danych, które przechowujemy – czyli metadanych. Tak jak w przypadku serwisów newsowych, które w ciągu dnia generują mnóstwo klipów filmowych, aktywnie wykorzystywanych przez 1-2 dni od momentu ich wyprodukowania, a później trafiających do archiwum i praktycznie niewykorzystywanych. Natomiast w każdej chwili może okazać się, że są nagle potrzebne i wtedy tylko dzięki dobremu ich opisowi będziemy w stanie do nich dotrzeć.

Storagefocus: Coraz częściej mówi się, że niedługo prawo będzie zmuszało nas do przechowywania danych przez 100 lat. Jaką technologię rekomendujecie?

Clod Barrera: Tu są dwa problemy – jednym jest trwałość zapisu, ale z tym sobie łatwo poradzić po prostu poprzez regularne przenoszenie danych na nowe nośniki. Ale jest też problem formatu danych, bo nie mamy jak trzymać zainstalowanych wszystkich wersji programów we wszystkich środowiskach (np. Word 2.0 w Windows 3.1), tylko po to, że być może kiedyś będziemy musieli odczytać jakiś plik.

Rozmawiał Krzysztof Jakubik

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ