Planowanie pojemności infrastruktury do wirtualizacji

0

Planowanie pojemności jest ważnym elementem wdrożenia wirtualizacji. Administratorzy muszą nie tylko określić bieżące potrzeby, ale również przewidzieć przyszłe zapotrzebowanie na moc obliczeniową i macierze dyskowe. Wprawdzie wirtualizacja wprowadza sporą elastyczność do serwerowni, ale z jednej strony nadmiar sprzętu spowoduje jego niskie wykorzystanie, a z drugiej źle zarządzana wirtualizacji może stać się wąskim gardłem.

Planowanie pojemności infrastruktury do wirtualizacji jest trudnym zadaniem, ponieważ wymaga przewidywania rozwoju centrum danych, szacowania obciążenia serwerów oraz ocena wymagań wydajnościowych poszczególnych aplikacji. Prawidłowo przeprowadzony proces capacity planning pozwala na dokonanie racjonalnych zakupów, które spełniają potrzeby biznesowe. Wynikiem planowania ma być efektywna infrastruktura, zarówno pod względem kosztów, jak i wykorzystania zasobów.

W tym artykule omawiamy najważniejsze kwestie, o których trzeba pamiętać podczas planowania pojemności infrastruktury do wirtualizacji serwerów. Zebraliśmy również wskazówki i najlepsze praktyki w zakresie planowania pojemności.

Czym jest planowanie pojemność?
Planowania pojemności nie należy mylić z pojemnością macierzy dyskowych. W wirtualnych środowiskach bierzemy pod uwagę, jak dużo mocy obliczeniowej potrzebują aplikacje i jak obciążenie jest rozłożone między serwerami. Ponadto trzeba przewidzieć zapasy mocy, np. ze względu na możliwość migracji maszyn wirtualnych między serwerami fizycznymi.

Trzeba też pamiętać, że capacity planning nie jest jednorazową czynnością, lecz ciągłym procesem. Można go przeprowadzić ręcznie – wtedy jest się zdanym na własną intuicję i doświadczenie. Można też skorzystać z narzędzi do planowania pojemności, które automatyzują ten proces.

Nawet jeśli zamierzasz używać zautomatyzowanych narzędzi, musisz zrozumieć, jakie są potrzeby i priorytety firmy. Samo narzędzie dostarczy Ci jedynie takie analizy, do jakich zostało zaprojektowane. Na przykład, narzędzie do obsługi pamięci masowych, które zostało wzbogacone o funkcje capacity planning, będzie wstanie dostarczyć jedynie informacji o zasobach dyskowych, a nie uwzględni innych ważnych aspektów tego procesu.

W większości przypadków nie ma priorytetów poszczególnych parametrów, ponieważ wpływają one na siebie wzajemnie. Dlatego administrator powinien mieć obraz całego środowiska, a każdy z obszarów należy rozpatrywać jako całość.

Ręczny proces, na którym skupiamy się w kolejnych akapitach, ma umożliwić szybkie i łatwe przeprowadzenie planowania pojemności – liczą się głównie instynkty i doświadczenie IT, które zwykle są bardzo dokładne.

Inwentaryzacja
Pierwszym krokiem w planowaniu pojemności jest inwentaryzacja. Musisz zebrać informacje o posiadanym sprzęcie i działających na nim aplikacjach. Jeśli chodzi o aplikacje, należy zbadać, ile średnio mocy procesora zużywają poszczególne aplikacje, kiedy i jak często występują szczyty obciążenia i jakie jest wtedy wykorzystanie procesora.

Na przykład, jeśli aplikacja wykorzystuje 15 % mocy trzygigahercowego procesora, to jej zapotrzebowanie wynosi 450 MHz. Upewnij się również, że inwentaryzacja rozróżnia procesory 32-bitowe od 64-bitowych. Pamiętaj, że najważniejsze jest zmierzenie obciążeń generowanych przez aplikacje, a nie sumaryczna moc posiadanych procesorów.

W zależności od używanego systemu operacyjnego i dostępnych środków, być może trzeba będzie dokładniej sprawdzić najbardziej prawdopodobne okresy występowania zwiększonych obciążeń. Sprawdź również, ile pamięci RAM zużywa dana aplikacja, jak obciążą sieć i jakie ma zapotrzebowanie na przestrzeń dyskową. Dostępne narzędzia w nieco ograniczony sposób wykonują takie pomiary. Czasem podają bardzo ogólne wyniki, typu: małe, średnie i duże, które można potraktować jedynie jako punkt wyjścia do dalszych pomiarów.

Następnym krokiem jest obliczenie dostępnej mocy obliczeniowej serwerów. Wystarczy uwzględnić tylko te serwery, które będę obsługiwać wirtualne środowisko. Istnieje oczywiście ryzyko, że można przegapić serwer, którego zasoby są w małym stopniu wykorzystywane. W przeciwieństwie do spisu aplikacji, w przypadku serwerów trzeba się skupić na ich parametrach technicznych: liczbie procesorów, częstotliwości taktowania, ilości pamięci RAM. Dodatkowo, ważne są: wydajność operacji I/O, liczba interfejsów sieciowych i kart interfejsów pamięci masowych (HBA).

Co i gdzie wirtualizować?
Przygotowanie do migracji należy rozpocząć od zmapowania aplikacji na dostępne zasoby. Większość wdrożeń wirtualizacji zaczyna się od zakupu nowych serwerów, a następnie przenosi się na nie aplikacje ze starego sprzętu, ale już do wirtualnych maszyn. Poza tym z reguły migrację rozpoczyna się od aplikacji o mniejszym znaczeniu i mniejszych wymaganiach.

Mając zinwentaryzowany sprzęt, dużo łatwiej jest rozbudowywać wirtualną infrastrukturę wraz z rosnącymi potrzebami. Zrobienie spis sprzętu to jedno, ale potrzebne są również dodatkowe dane dotyczące aplikacji. Pomogą one w podjęciu decyzji, czy dana aplikacja nadaje się do przeniesienia do wirtualnej maszyny. Jeśli tak, należy jej zawczasu przypisać zasoby, które będzie ona wykorzystywać po migracji. Ma to na celu zarezerwowanie zasobów, gdy będą potrzebne, co zapewni, że migracja zakończy się powodzeniem. Wprawdzie wcześniejsza alokacja zasobów może nieco zmniejszać korzyści z konsolidacji, ale serwery są tak mocno niewykorzystane, że wciąż pozostaje spory zapas mocy.

Jak wirtualizacja wpływa na planowanie pojemności?
Wirtualizacja nie zmienia podstawowych celów i korzyści wynikających z planowania wydajności. Jednak jednym z głównych celów wdrażania wirtualizacji jest poprawa wykorzystania dostępnej mocy obliczeniowej, dlatego precyzyjne planowanie pojemności nabiera większego znaczenia.

Poza tym wirtualizacja wymaga uwzględnienia dodatkowych kwestii, jak równoważenie obciążenia serwerów czy mechanizmy typu failover. Co oznacza, że trzeba stworzyć środowisko, w którym maszyny wirtualne będą rozmieszczone w sposób zapewniający efektywne wykorzystanie zasobów, a jednocześnie będzie zostawiony zapas pomocy na wypadek migracji maszyn wirtualnych z serwerów, które np. uległy awarii.

Najczęstsze błędy popełnianie podczas planowania pojemności
Jednym z największych błędów z jest próba umieszczenia na serwerze maksymalnej liczby wirtualnych maszyn, na którą pozwala jego wydajność. Technicznie jest to wykonalne, ale nie zalecane, ponieważ nie pozostaje rezerwa mocy na okresy zwiększonego obciążenia, czy na wirtualne maszyny przenoszone z innych serwerów. Zamiast próbować wycisnąć 100 % mocy z serwera, większość specjalistów IT zaleca utrzymanie średniego obciążenia na poziomie 50-80%.

Kolejny częsty błąd to niekontrolowany przyrost liczby wirtualnych maszyn (to zjawisko często określa się mianem server sprawl), co prowadzi do nadmiernego wykorzystania zasobów. Dlatego należy przestrzegać zasady, że w środowisku produkcyjnym uruchamia się tylko maszyny wirtualne w celu zaspokojenia potrzeb biznesowych, natomiast mniej ważne maszyny wirtualne powinny działać poza serwerownią. Przed skutkami server sprawl chronią narzędzia zarządzania cyklem życia maszyn wirtualnych, np. ułatwiają identyfikację zbędnych VM.

Macierze dyskowe

Często zapomina się, że do wydajnego i bezpiecznego działania wirtualnych maszyn nie wystarczą szybkie procesory i dużo pamięci RAM. Maszyny wirtualne wymagają także ochrony danych. Standardowym mechanizmem jest zapisywanie, tzw. migawek (snapshot). Maszynę wirtualną zapisaną na sieciowym systemie pamięci masowych (NAS lub SAN) można łatwo uruchomić na innym serwerze czy skopiować do lokalizacji zapasowej (disaster recovery). W celu zapewnienie dobrej wydajności wdraża się macierze SAN, ale warto też pamiętać o zarządzaniu cyklem życia i usuwaniu zbędnych wirtualnych maszyn, co przekłada się na zwiększenie wydajności.

Oznacza to, że potrzeby wirtualnych maszyn odnośnie przestrzeni dyskowej pod muszą zostać uwzględnione na równi z planowaniem mocy obliczeniowej czy ilości potrzebnej pamięci RAM. Za minimum należy przyjąć miejsce na każdą wirtualną maszynę oraz jej migawki. Z upływem czasu zapotrzebowanie na macierze dyskowe będzie rosnąć, dlatego po wdrożeniu trzeba monitorować poziom wykorzystania przestrzeni dyskowej.

Narzędzia do planowania pojemności

Prawidłowe podejście do planowania pojemności w środowisku wirtualnym powinno łączyć w sobie techniczną ocenę wykorzystania zasobów ze zrozumieniem potrzeb i celów biznesowych. Stosunkowo prostym zadaniem są pomiary wykorzystania zasobów. Przykładowo, system operacyjny Windows dostarcza narzędzi do zbierania takich danych. Poza tym są dedykowane narzędzia do planowania pojemności, jak VMware Capacity Planner czy Microsoft System Center Capacity Planner 2007. Są też narzędzia firm trzecich, jak Uptime Capacity Planning and Management, TeamQuest Performance oraz Tevron CitraTest VU.

Ale dobre planowanie pojemności jest czymś więcej niż tylko analizowaniem trendów. Trzeba też mieć na uwadze przyjęte cele biznesowe. Na przykład, załóżmy, że administrator będzie musiał w najbliższych 2 miesiącach utworzyć 15 nowych wirtualnych maszyn do obsługi aplikacji. Znając wymagania tych aplikacji i ich znaczenie dla biznesu, można zaplanować ich przypisanie do serwerów, które mają jeszcze rezerwę mocy obliczeniowej. Maszyny wirtualne o największym znaczeniu można umieszczać w wirtualnych klastrach lub innych systemach wysokiej dostępności, natomiast mniej ważne VM można przenieść na inne serwery. W miarę przybywania wirtualnych maszyn można rozbudowywać wirtualną infrastrukturę o nowe serwery, co z technicznego punktu widzenia jest prostym zadaniem.

Planowanie pojemności i disaster recovery
Jeśli firma wykorzystuje mechanizmy disaster recovery (DR) w ramach wirtualnej infrastruktury, należy się upewnić, że zostały zarezerwowane odpowiednie zasoby na środowisko zapasowe. Dzięki temu w momencie awarii będą do dyspozycji zasoby wymagane do odtworzenia aplikacji. W ramach planowania pojemności należy wskazać, czy serwer jest częścią planu DR i jaki jest jego priorytet w procedurze przywracania po awarii.

W scenariuszach DR wykorzystujących wirtualizację są zazwyczaj trzy obszary, dla których trzeba zarezerwować zasoby. Po pierwsze, jako środek bezpieczeństwa, kopie wszystkich wirtualnych maszyn powinny być przechowywane poza lokalizacją produkcyjną. Dzięki temu narzędzie DR w momencie wystąpienia awarii może uruchomić wirtualne maszyny w lokalizacji zapasowej. Drugi obszar to wirtualne serwery wcześniej przygotowane do przeniesienia, ale to należy wykonać ręcznie. Trzeci obszar to wirtualne maszyny przygotowane do wdrożenia, ale firma czeka na dodatkowy sprzęt, który zostanie umieszczony w lokalizacji zapasowej.

Aktualizacja
Ostatnim krokiem powinno być, w miarę możliwości, odświeżanie na bieżąco planu pojemności. Podczas migracji do środowiska wirtualnego, gdy nabiera się nowego doświadczenia, można zweryfikować plan i uczynić go bardziej precyzyjnym. W przyszłość, wraz z pojawianiem się nowych aplikacji i nowego sprzętu, łatwiej będzie z uwzględnieniem ich w planie pojemności. Co więcej, planowanie pojemności powinno uwzględniać nie tylko nowe wirtualne maszyny czy serwery fizyczne, ale także nowe technologie, np. interfejsy 10 GE, szczególnie te z wirtualizacją operacji I/O.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ