Pamięć masowa zdefiniowana programowo

0

Architektura współczesnego centrum danych pozwala wykorzystać sprzęt do zwiększenia możliwości oprogramowania. Ta zmiana, określana mianem centrum danych definiowanego przez oprogramowanie (software-defined datacenter, SDDC), umożliwia stworzenie płynniejszej, bardziej dynamicznej i szybciej reagującej infrastruktury.

Rozwiązania dostarczające wirtualne środowiska robocze za pośrednictwem infrastruktury wirtualnych desktopów (VDI) i aplikacji, zapewniające użytkownikom dostęp do oprogramowania działającego w chmurze lub w centrum przetwarzania danych mocno korzystają na takiej elastyczności.

Poprzez dostarczanie wirtualnych środowisk roboczych można pomóc organizacjom zwiększyć ich efektywność i produktywność, umożliwiając personelowi dostęp do aplikacji oraz danych w każdym miejscu i z poziomu dowolnego urządzenia. By to osiągnąć, należy zapewnić użytkownikowi odpowiedni komfort pracy na szerokiej gamie urządzeń, od stacji roboczych i laptopów poprzez smartfony na tabletach kończąc.

Wyzwania związane z pamięcią masową w VDI.

Często wspólnym mianownikiem w większości wdrożeń IT staje się pamięć masowa. Od kiedy pojawiła się technologia VDI, wydajność pamięci masowej zawsze była kluczowym czynnikiem w zapewnianiu użytkownikom komfortowej pracy. Jednak przez długi czas pamięć masową traktowano jak magiczną czarną skrzynkę. Była bardzo kosztowna i często stanowiła jeden z najbardziej skomplikowanych, a jednocześnie najbardziej kłopotliwych elementów infrastruktury centrum przetwarzania danych.

Jednak to pamięć masowa przechowuje jeden z najcenniejszych zasobów organizacji – dane użytkowników i aplikacji, które stanowią klucz do efektywności biznesowej organizacji, osiągnięcia pożądanych wyników oraz funkcjonowania wirtualnych środowisk roboczych.

Koszty, złożoność i wydajność pamięci masowej zawsze były poważnymi przeszkodami we wdrożeniach VDI. Aby dostarczanie wirtualnych środowisk roboczych przyniosło wymagane przez organizacje korzyści, branża musi nie tylko rozwiązać problemy z wydajnością, ale również ograniczyć koszty sesji użytkowników oraz zapewnić im wyższy komfort pracy.

Architektura pamięci masowej, ograniczająca koszty i złożoność.

Przez dłuższy czas pamięć masowa była monolitycznym i kosztownym elementem infrastruktury, który pozostawał w tyle za bardziej modularnymi architekturami serwerów, sieci i aplikacji. Ponadto wirtualizacja serwerów i dostarczanie aplikacji wprowadziły dodatkowe warstwy dynamicznej ekspansji i migracji w centrach przetwarzania danych. Efektem tego, konwencjonalna infrastruktura pamięci masowej coraz częściej nie była w stanie podołać tym zadaniom.

Z perspektywy klientów sprawę dodatkowo utrudniał fakt, że okres działania macierzy dyskowych w centrum danych to średnio 10 lat. W rezultacie nowe rozwiązania pamięci masowych muszą odpowiadać wspomnianym problemom, a jednocześnie wspierać i usprawniać bieżącą infrastrukturę, zamiast bazować na całkowitej wymianie sprzętu.

Nowa architektura pamięci masowej musi być modularna i w pełni rozproszona. Powinna również wykorzystywać klasyczne komponenty infrastruktury IT, łącząc je za pomocą oprogramowania w elastyczne systemy pamięciowe i obliczeniowe. Systemów tych można użyć do dostarczania zarówno środowisk VDI oraz kompletnych wirtualnych obszarów roboczych, jednocześnie kładąc nacisk na definiowanie i gwarantowanie odpowiedniego standardu pracy użytkowników i eliminowanie tak zwanych „wysp” infrastruktury i pamięci masowej.

Szeroko pojęte „wyspy” obliczeniowe i pamięciowe dla obciążeń roboczych i danych warto wyeliminować poprzez konsolidację za pomocą spójnej architektury centrum przetwarzania danych, która jest definiowana przez oprogramowanie (SDDC). To w nim zarówno szefowie ds. informatyki jak i działy IT będą w stanie zapewniać poszczególne usługi, ich odpowiednią jakość (QoS) oraz wyspecjalizowane funkcje za pomocą oprogramowania, które działa na zwykłym, standardowym sprzęcie. Z czasem dzięki zastosowaniu SSDC możliwości i zakres wykorzystania tych nowych środowisk będą rosły.

1. Definiowanie architektury

Architektura pamięci masowej definiowanej przez oprogramowanie pozwala oddzielić dane i zasoby obliczeniowe od sprzętu, z którego są dostarczane. Umożliwia to tworzenie kolejnych warstw usług, zgodnie z bieżącymi potrzebami IT, wykorzystując możliwości oprogramowania zainstalowanego na standardowym (heterogenicznym) sprzęcie, co jest odpowiedzią na wysokie wymagania związane z ograniczeniami i wysokimi kosztami sprzętu wyspecjalizowanego (homogenicznego).

Znacznie przyspiesza wprowadzanie innowacji, wdrażanie i aktualizowanie rozwiązań, a zarazem rozwiązuje kluczowy problem IT – jak i gdzie umieszczać systemy, aby uzyskać ich optymalną wydajność i obniżyć koszty utrzymania. Poprzez przeniesienie tego procesu do stosu rozproszonego oprogramowania, klienci mogą korzystać ze swojej infrastruktury jak z usługi, która rozciąga się na wiele centrów danych i rozwiązuje dylemat wyboru pomiędzy wdrożeniem chmurowym a lokalnym.

2. Wdrażanie architektury

Jedno rozwiązanie nie jest właściwym podejściem w sferze IT dla wszystkich firm. Organizacje potrzebują możliwości wykorzystania istniejącego sprzętu wraz z zasobami dostępnymi z chmur prywatnych jako infrastruktury dostarczanej na zasadach usługi, obsługującej wiele platform fizycznych i wirtualnych. I choć producenci sprzętu i oprogramowania pracują nad dostarczeniem kompletnego zestawu rozwiązań, trzeba wziąć pod uwagę różnorodne architektury środowisk IT oraz wynikające z nich wymogi przedsiębiorstw. Istnieje ogromne zapotrzebowanie na architekturę o wysokim stopniu uniwersalności, która integrowałby różne rodzaje zasobów pamięciowych, sieciowych i obliczeniowych oraz automatycznie zarządzała nimi za pośrednictwem oprogramowania niezależnego od dostarczanych platform i systemów operacyjnych.

3. Kluczowe wymagania wobec architektury

Choć centra danych i wirtualne obszary robocze definiowane za pomocą oprogramowana cieszą się coraz większym zainteresowaniem, firmy powinny patrzeć perspektywicznie, by lepiej wykorzystać ich elastyczność we własnych środowiskach. Wiele osób decyzyjnych (CIO) dysponuje ograniczonymi budżetami, a ich organizacje wymagają dostarczania większej liczby usług przy coraz krótszych terminach wdrożeń. Osiągnięcie kompromisu między dostarczeniem środowisk, funkcjonalności a ekonomią inwestycji bywa trudne, więc pojedynczy punkt kontrolny, które obejmuje swoim obszarem całą infrastrukturę wliczając w to udostępniane zasoby ma fundamentalne znaczenie w momencie podejmowania decyzji.

Kombinacja (nawet geograficznie rozproszonych) zasobów fizycznych, wirtualnych, chmurowych w połączeniu z właściwą infrastrukturą sieciową, platformami usługowymi i scentralizowanym, jednolitym zarządzaniem, może rozwiązać wyzwania zarówno budżetowe, jak i te w obszarze dotrzymywania odpowiednich terminów.

Sprawniejsze dostarczanie przestrzeni roboczej, dzięki architekturze pamięci masowej zdefiniowanej przez oprogramowanie.

Obecnie dotarliśmy do punktu, w którym można wykorzystywać sprzęt do zwiększenia możliwości oprogramowania, a nie odwrotnie. Eliminacja sprzętu dedykowanego do zapewnienia wąskiej grupy usług i funkcjonalności pomaga ograniczyć nakłady kapitałowe, a przeniesienie tych zasobów, funkcjonalności i usług na standardowe platformy zmniejsza wydatki operacyjne oraz zwiększa wydajność.

Odpowiednie oprogramowanie pozwala na zastosowanie tej samej infrastruktury do dostarczenia wielu różnych aplikacji, usług i środowisk, jednocześnie znacznie przyspieszając zwrot z inwestycji i zwiększając produktywność. Zamiast wdrażać dedykowane systemy, które zapewniają wąski zestaw funkcjonalności, można zastosować otwarte rozwiązania, które zwiększą elastyczność całej infrastruktury w ramach centrum przetwarzania danych. Co ważniejsze, jest to holistyczne podejście, w którym VDI, aplikacje, a także zasoby biznesowe są wysoce dostępne, skalowalne i elastyczne, co zwiększa ogólną efektywność organizacji i jej pracowników.

Sebastian Kisiel, Lead System Engineer, Citrix Systems Poland.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ