Wirtualizacja a przywracanie po awarii

0

Większość firm jest świadoma różnych zalet wirtualizacji, jak redukcja kosztów, lepsze wykorzystanie sprzętu czy uproszczenie zarządzania. Jednak to nie wszystko, co oferuje wirtualizacja. Zaawansowane narzędzia do zarządzania pozwalają wykorzystać wirtualne środowisko w scenariuszach przywracania po awarii i wysokiej dostępności (ciągłości biznesowej).

Ponieważ firmy coraz częściej przenoszą do wirtualnych maszyn aplikacje, mające krytyczne znaczenie dla ich działania, poważnie wzrosły negatywne skutki ewentualnej awarii. Awarie mogą polegać na uszkodzeniach sprzętu czy oprogramowania lub być efektem katastrof naturalnych, ataku wirusa komputerowego czy wrogiej działalności. Dlatego rozwiązania do wirtualizacji zaczęto wyposażać w mechanizmy zapewniające ciągłość pracy aplikacji oraz umożliwiające szybkie przywrócenie systemu po awarii. Co więcej, środowisko wirtualne pozwala dość łatwo przygotować odpowiednie zabezpieczenia.

Przywracanie po awarii

Wirtualizacja zrewolucjonizowała podejście firm do przywracania po awarii, co objawiło się m.in. bardzo dużą liczbę wdrożeń, zarówno w korporacjach, jak i firmach średniej wielkości. Pierwsze firmy wdrażające wirtualizację robiły to głównie ze względu na możliwość konsolidacji serwerów, jednak, wraz z rozwojem produktów do wirtualizacji, coraz częściej zaczął pojawiać się motyw przywracania po awarii.

Jeśli spojrzeć kilka lat wstecz, dobre praktyki przywracania po awarii zalecały, żeby system zapasowy był dokładnym odpowiednikiem systemu produkcyjnego, np. każdy serwer produkcyjny powinien mieć swój odpowiednik w systemie zapasowym. To bardzo kosztowne zalecenie, na którego spełnienie wielu firm po prostu nie stać.

Lepszym pomysłem jest obniżenie kosztów stworzenie środowiska zapasowego w taki sposób, żeby nie musiało w stosunku 1:1 odpowiadać środowisku produkcyjnemu. Tu z pomocą przychodzi wirtualizacja, która oddziela procesy przywracania od infrastruktury fizycznej. To oznacza, że nie ma potrzeby przywracania aplikacji w takim samym środowisku. Kilka serwerów produkcyjnych można uruchomić w wirtualnych maszynach na pojedynczym serwerze. Takie podejście pozwala na znaczną redukcją kosztów zakupu sprzętu i jest znacznie łatwiejsze w zarządzaniu niż serwery z działającymi na nich pojedynczymi aplikacjami. Wirtualne maszyny można przenosić czy kopiować na dowolny serwer x86 bez przerywania ich działania. Mogą być również przenoszone do zapasowych lokalizacji i szybko uruchamiane ponownie, nawet na innym sprzęcie i w innej sieci.

Planowanie mechanizmów przywracania po awarii
Planując migrację do wirtualnego środowiska należy uwzględnić kilka czynników w związku z wprowadzaniem mechanizmu przywracania po awarii i zapewnieniem ciągłości biznesowej. Omawiamy je poniżej.

Ochrona danych
Przyglądając się rozwiązaniom do ochrony danych, należy poszukać równowagi między możliwościami finansowymi a potrzebami firmy w zakresie szybkości przywracania danych. Typowe podejścia do ochrony danych to:

  • Backup na taśmach. Przeznaczony z reguły do długookresowego przechowywania danych. Metoda atrakcyjna kosztowo, ale mająca szereg wad, jak złożone zarządzanie i czy konieczność robienia kopi w oknie backupu. Raczej nie nadaje się do ochrony krytycznych aplikacji. Przywracanie aplikacji z kopi na taśmie jest czasochłonne, co oznacza kosztowny przestój.
  • Replikacja (migawki).Tego typu technologie są od dawna dostępne i umożliwiają efektywne kopiowanie danych w czasie rzeczywistym. Zapewniają lepszą ochronę niż backup na taśmach, ale wciąż występuje problem utraty nowych danych, zapisanych pomiędzy kolejnymi zadaniami backupu.
  • Ciągła ochrona danych (Continuous data protection). Technologie CPD przechwytują dane w momencie, gdy te są zapisywane i zapisują je w specjalnym formacie odzwierciedlającym zmiany zachodzące w czasie. CDP dba o spójność aplikacji, zużywając przy tym niewiele zasobów serwerów produkcyjnych. Eliminuje problem okien backupu i zapewnia bardzo szybkie przywracanie.

Spójność aplikacji
W wirtualnym środowisku bardzo ważne jest zapewnienie ciągłej ochrony hostów i spójne zarządzanie aplikacjami. Bez zapewnienia spójności na poziomie aplikacji bardzo trudne staje przywrócenie danych do użytecznego stanu. W praktyce byłoby to bardzo czasochłonne. Dlatego lepszym sposobem ochrony wirtualnych maszyn jest wykonywanie ciągłego, przyrostowego backupu i rejestrowanie zmian na poziomie bajtów. Zmiany są przesyłane przez sieć IP do zdalnego systemu zapasowego.

Scenariusze ochrony przed awarią
Wiele firm, nawet już po zakończeniu wdrożenia wirtualizacji, nadal korzysta z mieszanego środowiska, które jest jedynie częściowo zwirtualizowane. Dlatego należy opracować taką strategię przywracania po awarii, która będzie uwzględniała zarówno wirtualne, jak i fizyczne serwery oraz pozwalała na ich migrację w dowolnym kierunku (fizyczne do wirtualnych, wirtualne do wirtualnych itd.).

Optymalna wydajność wirtualnych maszyn
Technologie przywracania po awarii z reguły wymagają instalowania agentów na chronionych systemach, co prowadzi do spadku wydajności. Ponieważ na jednym serwerze fizycznym może działać wiele wirtualnych maszyn, należy korzystać z jak najmniejszych agentów, minimalizując ich wpływ na wydajność. Niektóre produkty oferują nawet funkcje przejmowania obciążeń, aby agent działał w sposób zupełnie nie wpływający na chronione systemy.

Plan przywracania po awarii
Działy IT muszą zarządzać coraz bardziej złożoną infrastrukturą czy dostosowywać się do wymogów prawnych, co dodatkowo utrudnia wypełnianie zaleceń dotyczących przywracania po awarii. Poza tym z reguły uwaga skupia się na ochronie danych, a nie przywracaniu po awarii. Dlatego procedura przywracania po awarii wirtualnego środowiska nie tylko zminimalizuje skutki awarii, ale także pozwoli szybko przywrócić system do działania.

Pierwszym ważnym elementem planu przywracania po awarii jest analiza wpływu na działanie firmy. Należy udokumentować wpływ określonych zdarzeń, jak awaria serwerów czy atak wirusa, na podstawowe obszary działania firmy (sprzedaż, pomoc techniczna, księgowość itp.). Następnie należy przygotować listę krytycznych aplikacji i każdej nadać priorytet. Jeśli podstawowa infrastruktura ulegnie awarii, trzeba mieć przygotowaną minimalną listę aplikacji, które muszą być jak najszybciej przywrócone. Przykładowo, w firmie opierającej swoje działanie na Internecie krytycznymi aplikacjami będą systemy e-commerce oraz zarządzania kontaktami z klientami (CRM). Wybrane aplikacje powinny stanowić trzon planu przywracania.

Kolejnym zadaniem jest określenie dwóch parametrów: Recovery Point Objective (RPO) oraz Recovery Time Objective (RTO). RPO to ilość danych, której utrata jest akceptowalna. W idealnym przypadku RPO wynosi zero, ale większość firm może zaakceptować utratę określonej ilości danych, np. z ostatnich 20 minut czy ostatniej godziny, i nadal działać bez poważniejszych zakłóceń. Innymi słowy, mogą przywrócić system do stanu sprzed określonego czasu nie doznając istotnego uszczerbku. Do obliczenia RPO potrzebne są wyspecjalizowane narzędzia, które automatyzują tę czynność (ręczne obliczenia są bardzo uciążliwe).

Z kolei RTO oznacza akceptowalny czas przestoju potrzebny do przywrócenia systemu po awarii. Firmy jak najszybciej potrzebują swoich danych do działania, ale należy zachować równowagę między czasem a kosztami. Rozwiązania do ciągłej ochrony danych pozwalają na zachowanie stałej dostępności, ale ich koszt może być zaporowy. Z drugiej strony, jeśli firma minimalizuje koszty, najlepszym wyborem będzie backup na taśmach, jednak wtedy znacznie wydłuży się czas przywracania.

Są dwa sposoby, aby osiągnąć zamierzone czasy RTO i RPO – poprzez backup synchroniczny i asynchroniczny. Backup synchroniczny polega na mirroringu danych lub tworzeniu migawek i zapisywaniu ich w drugiej lokalizacji poprzez sieć WAN. Ta metoda narzuca jednak ograniczenia co do odległości, na którą można przesyłać danych – w przypadku mirroringu powyżej 30 km pojawiają się różne problemy z wydajnością. Natomiast migawki wymagają przesyłania znacznie większych ilości danych. Backup asynchroniczny polega na przesyłaniu małych ilości danych, które w sposób ciągły są umieszczane w kopi zapasowej. Ta metoda jest bardziej wydajna i nie ma ograniczeń co do odległości. Wykorzystanie kompresji czy rozwiązań do optymalizacji WAN może dodatkowo zmniejszyć wymagania dotyczące przepustowości.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ