Od wirtualizacji do cloud computingu

0

Wirtualizacja to klucz do chmur obliczeniowych. Możliwość separacji systemu operacyjnego i aplikacji od sprzętu sprawia, że jest to najlepsze rozwiązanie do dostarczania usług w modelu cloud computing. Powstaje jednak pytanie, jak firmy mogą wykorzystać wirtualizację do stworzenia własnych, prywatnych chmur?

Z reguły firmy przechodzą przez trzy etapy wirtualizacji. Pierwszy polega na czerpaniu najłatwiej osiągalnych korzyści, jak konsolidacja i przywracanie po awarii. W ten sposób ogranicza się wydatki związane z aplikacjami mającymi niewielki wpływ na działalność biznesową.

Drugi etap, który obecnie przechodzi większość firm, jest już bardziej skomplikowany. W wielu działach IT obowiązuje reguła „w pierwszej kolejności wirtualizuj”. Na tym etapie firmy zaczynają korzystać z aplikacji, serwerów, pamięci masowych i sieci jako z puli zasobów, która może być zarządzana jako zagregowana całość, a nie odrębne silosy. Myślenie o zasobach IT jako o cały systemie staje się ważne, jeśli chce się w pełni wykorzystać potencjał wirtualizacji. To pozwala działom IT przydzielać zasoby na żądanie i efektywnie rozkładać obciążenia w celu lepszego wykorzystania dostępnych zasobów.

Kwestie wydajności również na tym etapie wymagają uwagi. Firmy mogą bez większej szkody doświadczać nieprzewidzianych spadków wydajności na pierwszym etapie, co powinno im uświadomić istnienie problemu. W efekcie będą mogły się przed tym zabezpieczyć w drugim etapie podczas przenoszenie do maszyn wirtualnych aplikacji o największym znaczeniu, jak serwer pocztowy, baza danych czy SAP.

Dlatego na drugim etapie tak istotne jest, żeby firmy korzystały z dodatkowych narzędzie do zarządzania wirtualizacją, a nie tylko tych podstawowych, dostarczanych razem z hypervisorem. Narzędzia do zarządzania wydajnością infrastruktury mają decydujące znaczenie, jeśli chodzi o optymalizację wydajności podczas procesu migracji aplikacji do wirtualnego środowiska. Te rozwiązania umożliwiają działom IT wgląd w wirtualne środowisko i kontrolowanie go, co pozwala na rozwiązywanie problemów z wydajnością, optymalizację wydajności, planowanie wymagań odnośnie serwerów i macierzy dyskowych, zarządzaniem poziomem usług. To z kolei pozwala na przejście do trzeciego etapu wirtualizacji.

Trzeci etap charakteryzuje się wirtualizacją krytycznych dla firmy aplikacji i transformacją polegającą na tym, że zwirtualizowane zasoby stają się pulą zasobów zarządzaną na poziomie całego data center. To pozwala aplikacjom z różnych działów biznesowych płynnie migrować pomiędzy zasobami fizycznymi. Na tym etapie infrastruktura jest współdzielona, a dział IT może się skupić na stworzeniu prywatnej chmury, w której fizyczne i logiczne zasoby są udostępniane poprzez warstwę wirtualnych usług.

Etap drugi: koncentracja na wydajności i zarządzaniu pojemnością
Przyjrzyjmy się bliżej, jako wymagania dotyczące wydajności muszą być spełnione na drugim etapie, żeby udało się przejście do trzeciego etapu wirtualizacji – budowy prywatnej chmury.

1) Rozwiązywanie problemów z wirtualnym środowiskiem
Administratorzy IT powinni korzystać z narzędzi do zarządzania, które dają obraz całej puli zasobów, co pozwala rozwiązywać pojawiające się problemy. Skuteczne wykrywanie źródeł problemów wymaga możliwości obserwowania wszystkich elementów, włączając w to automatyczne mapowania każdego elementu i jego powiązań z aplikacjami oraz wirtualnymi i fizycznymi serwerami, jak również macierzami dyskowymi.

Tego rodzaju narzędzia do zarządzania muszą również dostarczać administratorom informacji o czasie reakcji infrastruktury (Infrastructure Response Time, IRT), co jest niezbędne do rozwiązywania problemów z wydajnością. Tego rodzaju metryki powinny być zdefiniowane jako czas realizacji przez system zadań przydzielanych mu przez aplikacje. IRT pokazuje bezpośrednio, jakie są czasy reakcji systemu. Administratorzy mogą używać tych metryk do szybkiego wykazania użytkownikom aplikacji, jakie są przyczyny niskiej wydajności: czy leżą po stronie infrastruktury lub może są powodowane przez inne czynniki spoza infrastruktury. W efekcie problemy, których rozwiązanie zajmowało dotychczas kilka godzin, mogą być usunięte w ciągu minut.

Przykładowo, firmy regularnie stosują, tzw. najlepsze praktyki planowania wirtualizacji w projektach konsolidacji, ale nie są w stanie w pełni oszacować wymagań dotyczących pamięci masowych i ich wpływu na wydajność. Firma, która przeprowadzi wdrożenie wirtualizacji, pozostawiając pamięci masowe w dotychczasowym stanie, naraża się na poważne problemy z wydajnością. Po zainstalowaniu narzędzi do zarządzania wydajnością infrastruktury, które automatycznie mapują topologię, wykrywając wąskie gardła i problemy z konfiguracją, można jasno wykazać, co było przyczyną niskiej wydajności (w tym przypadku pamięci masowe).

2) Optymalizacja systemu
Administratorzy IT muszą uzależniać stopień konsolidacji serwerów (liczbę wirtualnych maszyn na jednym serwerze fizycznym) od wymagań aplikacji, optymalizacji wydajności i pożądanego poziomu wykorzystania infrastruktury. Prawdziwa optymalizacja infrastruktury wymaga wglądu i analizy zarówno wydajności, jak i poziomu wykorzystania infrastruktury, a wirtualizacja dodatkowo utrudnia to zadanie. Koncentracja tylko jednym z tych czynników jest niewystarczająca, ale dobrze przygotowane narzędzia do zarządzania wydajnością pozwalają obserwować oba te czynniki, co z kolei pozwala na maksymalizację wydajności przy najniższych możliwych kosztach.

Te narzędzia zbierają dane z różnych elementów (maszyn wirtualnych, serwerów, macierzy dyskowych), przeprowadzają modelowanie i analizę, a następnie tworzą statystyki na poziomie całego centrum danych. Otrzymane wyliczenia wskazują, jak osiągnąć balans pomiędzy wymaganiami aplikacji, a możliwościami infrastruktury do ich dostarczania. Wskaźniki wydajności są obliczane zarówno na poziomie maszyn wirtualnych, jak i serwerów fizycznych, co daje możliwość zwiększenia stopnia konsolidacji odpowiednio do wymagań maszyn wirtualnych i przy zachowaniu odpowiedniej rezerwy wydajności na momenty zwiększonego obciążenia.

Określenie reguł współdzielenia zasobów
Wirtualne maszyny mogą być przypisane do określonej puli zasobów. W wielu wdrożeniach wirtualizacji wciąż nie wykorzystuje się korzyści, jakie przynosi dokładne określenie ziarnistości pul zasobów. Podzielenie dużego serwera lub klastra serwerów na mniejsze pule zasobów pozwala na optymalne zarezerwowanie zasobów w celu grupowania aplikacji. Każda maszyna wirtualna należąca do danej puli współdzieli jej zasoby na podstawie określonych reguł (maszyna wirtualna otrzymuje uprawnienia do korzystania z zasobów, które są przestrzegane w danej puli).

Podzielenie na mniejsze pule ułatwia działowi IT przydzielenia zasobów poszczególnym działom biznesowym, które przecież mogą korzystać z wielu maszyn wirtualnych. Każdy dział biznesowy może wtedy samodzielnie decydować, w jaki sposób najlepiej wykorzystać dostępną pulę poprzez określenie różnych priorytetów dla poszczególnych maszyn wirtualnych. Ta metoda gwarantuje zasoby dla każdego działu i pozwala uniknąć konkurencji o dostęp do zasobów pomiędzy maszynami wirtualnymi z różnych działów. Pule zasobów mogą izolować działy biznesowe od tych, które mają skłonność do nadmiernego zużywania zasobów i zapewniają, że działy, które zapłaciły za określoną pulę zasobów, otrzymają ją na wyłączność.

Inną, również użyteczną strategią tworzenia pul zasobów jest grupowanie aplikacji według ich typu, funkcji czy innych atrybutów (np. strefy geograficznej/czasowej, priorytetów biznesowych, czy umów SLA). Pomyśl o puli zasobów jako zbiorze reguł dla maszyn wirtualnych, które dzielą całość zasobów na mniejsze przestrzenie, z których każda może być używana przez określony działa. Można również pozostawić część zasobów do współdzielenia przez całą firmę.

Narzędzia do zarządzania wydajnością infrastruktury nie tylko analizują i obrazują wykorzystanie zasobów z poszczególnych pul, ale także pokazują te dane w kontekście uprawnień. Jeśli dana pul często wykracza poza swoje uprawnienia, może to wskazywać na konieczność sprawdzenia należących do niej maszyn wirtualnych pod kątem przydzielonych im uprawnień. Z drugiej strony, jeśli pula stale działa na poziomie znacznie niższym niż jej uprawnienia, może to być dobra okazja do przeniesienia nadwyżki jej zasobów do innej puli, gdzie będą lepiej wykorzystane.

3) Planowanie pojemności
Administratorzy IT muszą zaplanować pojemność infrastruktury w celu dokładnego przewidzenia, jakie będą konieczne wydatki na zakup sprzętu. Odpowiednio przeprowadzone planowanie pojemności zapewni, że będzie wystarczająco dużo zasobów dla aplikacji, a jednocześnie inwestycje na sprzęt będą możliwie najniższe (chodzi o uniknięcia zjawiska określanego angielskim terminem over-provisioning).

Narzędzia do zarządzania wydajnością infrastruktury są w stanie dostarczyć dane na poziomie centrum danych pozwalające przewidzieć wydajność i wzrost pojemności. Najlepiej wybrać narzędzie, które automatycznie określi parametry poszczególnych maszyn wirtualnych, serwerów i pamięci masowych i pozwoli stworzyć spójny zbiór metryk dla wszystkich zasobów IT. Ten rodzaj narzędzi może być wykorzystany jako niezależny doradca przy podejmowaniu decyzji o zakupie i sprzętu – w ten sposób zakupy będą realizowane tylko wtedy, gdy to faktycznie konieczne, a nie wtedy, gdy sugerują to producenci sprzętu.

Typowy przykład – firma musi zaplanować, ile serwerów z hypervisorem ESX będzie potrzebować w jednym klastrze, żeby zapewnić konsolidację i utrzymać wzrost. Rozwiązanie do zarządzania wydajnością infrastruktury dostarcza informacji dotyczących procesorów, pamięci, wykorzystania pamięci masowych, szczytowych obciążeń oraz na temat trendów. Pokazuje, które serwery ESX były przeciążone, a które wykorzystane na zbyt niskim poziomie. W rezultacie dział IT jest w stanie połączyć różne aplikacje w celu osiągnięcia wyższego współczynnika konsolidacji, zminimalizowaina migracji maszyn wirtualnych (vMotion) w celu zmniejszenia liczby operacji I/O oraz zracjonalizować wydatki, co przyspiesza cały projekt wirtualizacji.

4) Umowy SLA

Administratorzy IT muszą pamiętać o zapewnieniu poziomu usług, żeby spełnić wymagania stawiane przez działy biznesowe – użytkownicy biznesowi wymagają umów SLA. Wirtualizacja dostarcza szereg mechanizmów, które pozwalają zwiększyć poziom dostępności aplikacji, ale z drugiej strony utrudnia spełnienie wymogów dotyczących wydajności. Dlatego konieczne jest monitorowanie parametrów IRT wszystkich zasobów związanych z dostarczaniem danej aplikacji. Mogą być one wykorzystywane do określania bazowych poziomów usług, jak również do prognozowania przyszłych usług, a nawet alarmowania w przypadku naruszenia warunków umowy SLA.

Narzędzia dostarczające informacji o kosztach działania danej aplikacji pozwalają precyzyjnie rozłożyć je na poszczególne składowe, jak koszt serwerów czy pamięci masowych. Dlatego należy wybierać narzędzia, które mają funkcje automatycznej sprawozdawczości.

Przykładowo, firma będąca w trakcie procesu wdrażania dwóch nowych wirtualnych farm serwerów, które rozrastały się z dnia na dzień, wykorzystywała rozwiązanie do zarządzania wydajnością infrastruktury do mierzenia i porównywania wydajności przed i po wirtualizacji. Dzięki temu była w stanie pokazać klientom, że po wdrożeniu wirtualizacji jest w stanie zapewnić im taki sam lub nawet wyższy poziom usług.

Etap trzeci: zoptymalizowane środowisko wirtualne, które jest gotowe na cloud computing
Wirtualizacja pozwala działom IT ograniczać koszty i zwiększać efektywność, wykorzystać nowe inwestycje w IT i podnosić poziom usług. Wraz z przechodzeniem przez firmy przez kolejne etapy wirtualizacji serwerów, potrzebują one lepszych narzędzi do zarządzania wydajnością, które dają większą przewidywalność skutków podejmowanych działań i zaufanie, że dział IT spełni wymagania stawiane przez użytkowników biznesowych. Firmy nie korzystające z takich narzędzi zarządzania wydajnością nie są w stanie efektywnie wykorzystać potencjału leżącego w prywatnych chmurach.

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ