Pamięci masowe – czas na rewolucję

0

Zmiany i nowe technologie w świecie pamięci masowych pojawiają się tak szybko, że nawet specjalistom IT trudno za nimi nadążyć. Trzeba jednak trzymać rękę na pulsie, ponieważ niektóre ze spodziewanych innowacji mogą radykalnie odmienić centra danych.

Po kilku latach inercji branża pamięci masowych rozwija się dzisiaj w tempie nie notowanym od 30 lat. W tempie, które może doprowadzić do istotnych zmian w centrach. Z drugiej strony szybszy rozwój nośników danych wymuszają sami użytkownicy, którzy potrzebują zarówno większej pojemności, jak i szybszego dostępu.

Flashowa technologia się rozkręca
Jednym z najgorętszych trendów jest szybka ewolucja nośników flash. Większość z nas słyszała o technologii 3D NAND, która charakteryzuje się dużo większą pojemnością przy niższych kosztach. W tym przypadku bramki w układach flash są budowane pionowo, co oznacza, że na jednej kości zmieści się większa liczba komórek. Wprawdzie ta technologia jest na razie na wczesnym etapie rozwoju i wciąż pozostają pewne problemy do rozwiązania, ale gdy już się to uda, producenci będą mogli wielokrotnie zwiększyć pojemność pojedynczej kości pamięci flash.

Już teraz te pamięci są na tyle zaawansowane, że znajdują zastosowanie jako podstawowy nośnik danych w serwerowniach – twarde dyski ustępują pola, ponieważ są zbyt wolne. Flashowa rewolucja zachodzi na różnych płaszczyznach. Z jednej strony pojawiają się produkty montowane bezpośrednio w serwerach, wykonane w technologii NVMe i wykorzystujące interfejs PCIe. Z drugiej strony producenci wprowadzają macierze typu all flash potrafiące wykonywać miliony operacji wejścia/wyjścia na sekundę, które rozwiązują wiele problemów ze współdzieleniem danych.

Co więcej, trwają już prace nad konkurencją dla nośników flash. Przykładowo, Intel i Micron rozwijają technologię, która ma zniwelować lukę miedzy szybkością pamięci flash i DRAM. XPoint w założeniach ma być mechanizmem nieulotnej pamięci RAM. Na razie nie są znane szczegóły, w jaki sposób będą przechowywane dane. Jednocześnie pojawiają się bardzo złożone zagadnienia po stronie aplikacji. Wydaje się jednak, że świat potężnych rozwiązań in-memory widać już na horyzoncie.

Na rynku są już nośniki SSD o pojemności 16 TB, to znacznie więcej, niż pojemność największych dysków twardych. Tymczasem jeszcze w 2017 r. do sprzedaży mają wejść dyski flash 32 TB, a producenci zapowiadają modele o pojemności nawet 100 TB. W tym czasie technologia HDD ma szansę osiągnąć 15-16 TB. Warto odnotować, że już teraz średniej klasy nośniki SSD są o połowę tańsze niż korporacyjne dyski twarde, a jednocześnie setki razy szybsze. Również w 2017 wejdą do użytku różne innowacyjne rozwiązania 3D NAND, wydłuży się trwałość (liczba zapisów) nośników SSD i dalej będą spadać ceny – era dominacji dysków HDD wydaje się dobiegać końca.

Takie produkty, jak XPoint i ReRAM w połączeniu z interfejsem Hybrid Memory Cube (HMC) czy jego wariantami będą oddziaływać na systemy pamięci masowych już w 2017 r., ale na pewno jest przed nimi długa droga, zanim zaczną skutecznie wypierać nośniki flash.

Wielu producentów przygląda się różnym wariantom HMC, w których trójwymiarowe rozmieszczenie kości oraz wykorzystanie TSV (Through-Silicon Vias) umożliwia integrację w jednym układzie procesorów CPU lub GPU oraz pamięci. To umożliwia, m.in. osiągnięcie bardzo dużej przepustowość, sięgającej teoretycznie terabajtów na sekundę. Projekt opracowany przez XPoint wpasowuje się w ten model, ale również inne rozwiązania idą w tym kierunku, np. ReRAM.

HAMR – as w rękawie dostawców HDD
W cieniu SSD rozwija się technologia HAMR (Heat-Assisted Magnetic Recording), dzięki której dyski HDD mają szansę pozostać w grze. Ta metoda wykorzystuje laser do pogrzania nośnika zanim zostaną na nim magnetycznie zapisane dane. W ten sposób, według prognoz, pojemność zapisu magnetycznego ma zwiększyć się więcej niż stukrotnie. HAMR jest rozwijany od kilku lat i obecne prototypy dysków HDD pokazują potencjał tej technologii. Najbliższe miesiące będą okresem testowania i ocenia sposobów, jak wykorzystać dyski z HAMR w centrach danych.

Kolejną interesującą, choć odległą technologią jest zapis danych w DNA. Trwałość tego nośnika i gęstość zapisu sugerują, że z dużym prawdopodobieństwem będziemy kiedyś przechowywać w ten sposób dane. Zanim to nastąpi, minie jeszcze wiele lat. Na razie koszty i ograniczona skalowalność wykluczają użycie tej technologii. Problemem z DNA nie jest przechowywanie danych, lecz ich odczytywanie w powtarzalny sposób. Aby uzyskać dostęp do danych, użytkownik potrzebowałby bardzo drogie czytnika lub mikroskopu. Ten sam problem dotyczy taśm optycznych czy nośników holograficznych. Koszty i problemy z odczytem to ostatnie  przeszkody do pokonania, które wstrzymują badania.

SDS i konwergentna infrastruktura
Te dwie technologie są ze sobą splecione. Popularność SDS (Software Defined Storage) zaczyna coraz szybciej rosnąć, ponieważ przedsiębiorstwa zdążyły już zrozumieć, jak działają rozwiązania tej klasy i jakie mogą znaleźć zastosowania. Dlatego od dyskusji zaczynają przechodzić do wdrożeń. Usługi danych są zwirtualizowane, natomiast dostęp do sprzętu odbywa się na najniższym możliwym poziomie, dlatego bardzo pożądane są gotowe rozwiązania (tzw. appliance) integrujące moc obliczeniową (serwery) i pamięci masowe (macierze).

Inne zjawiska, które mogą kształtować świat pamięci masowych, to popularyzacja oprogramowania open source oraz produktów typu white box. Po cały stos oprogramowania można sięgnąć do świata open source i na nim zbudować w pełni funkcjonalny system pamięci masowych. Można powiedzieć, że w pamięciach masowych postępuje linuksowa rewolucja, która na koniec może sporo zamieszać wśród producentów działających na tym rynku.

Postępująca standaryzacja sprzętu powoduje, że przenośność oprogramowania oraz integracja przestają być barierami.  Coraz częściej użytkownicy unikają inwestycji w drogie rozwiązania integrowane przez producentów, zamiast których sięgają po produkty white box, dostępne po znacznie niższych cenach.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ