Jak wirtualizacja zmienia podejście do backupu?

0

Jeśli jesteś administratorem, który stoi przed wyborem nowego rozwiązania do wykonywania kopii bezpieczeństwa musisz zwrócić uwagę na kilka istotnych kwestii. Przede wszystkim na fakt, iż wirtualizacja zmienia tradycyjne podejście do zagadnienia backupu..

Jednym z podstawowych argumentów, które wymieniają sami administratorzy pytani o powody wirtualizacji własnych środowisk, jest łatwość wykonywania kopii bezpieczeństwa. Najczęściej powołują się oni na fakt, iż system, który został zwirtualizowany staje się odporny na awarię sprzętową. To znaczy, że nawet po fizycznej awarii maszyny (zwanej hostem), maszyna gościa może kontynuować pracę, dynamicznie migrując na inny system hosta. Procesem tym zarządza specjalistyczne oprogramowanie zwane hyperwizorem. Dodatkowym atutem korzystania ze środowiska wirtualnego jest odporność na błąd ludzki, który według licznych badań jest jedną z podstawowych przyczyn utraty danych. Można stwierdzić, że administratorzy przywykli już do tego, że przed wykonaniem jakiejkolwiek zmiany w systemie, tworzą tzw. migawkę stanu maszyny. Jeśli zmiana, którą chcieli wprowadzić, wpłynęła na stabilność pracy maszyny lub w jakikolwiek sposób uniemożliwia pracę, wówczas wystarczy jedno kliknięcie, aby przywrócić maszynę do jej pierwotnego stanu, kiedy wykonano migawkę. Teoretycznie więc, ryzyko utraty danych, które zapisujemy w systemie zwirtualizowanym jest minimalne. Ale czy na pewno tak właśnie jest? Jeśli wziąć pod uwagę system, którego zadanie polega na udostępnianiu użytkownikom plików, to z technicznego punktu widzenia migawka jest idealnym sposobem na backup. Dla hyperwizora stan maszyny jest zwykłym plikiem, łatwo jest więc go skopiować w bezpieczne miejsce – tak „na wszelki wypadek”.

Migawka – OK, ale co z zarządzaniem?

Czy funkcjonalność migawek, którą oferuje każda dostępna na rynku platforma wirtualizacji, można nazwać pełnoprawnym rozwiązaniem do backupu? Tak, ale.. No właśnie – ale.. Z pewnością problemem jest w tym wypadku brak wygody zarządzania takim systemem. Trudno wyobrazić sobie administratora dużej sieci, składającej się z dziesiątek lub nawet setek maszyn wirtualnych, który o danej godzinie (określonej w polityce backupowej) łączy się z hyperwizorem za pomocą narzędzi do zarządzania i zleca wykonanie migawki każdej z maszyn. Następnie po kilku minutach, a czasem godzinach, może takie migawki skopiować najpierw na dysk swojego komputera, a następnie na bezpiecznym nośniku (np. taśmie). Proces ten staje się jednak tak uciążliwy, że przestaje być możliwy do zrealizowania przy kilku maszynach wirtualnych.

Kiedy migawki nie wystarczą…

Sytuację komplikują dodatkowo różnorakie aplikacje pracujące na wirtualnych maszynach. Jeśli są to bazy danych, usługi katalogowe lub np. środowisko pracy grupowej, backup migawkowy w ogóle nie powinien być stosowany. Z trywialnego powodu – wymienione aplikacje bardzo często wykonują wiele transakcji w ciągu jednej sekundy, a każda z nich musi zostać zakończona. Wykonanie migawki systemu w czasie, gdy jedna ze wspomnianych usług uzyskuje dostęp do danych, może spowodować brak możliwości ponownego uruchomienia usługi z powodu niespójności danych. W najlepszym wypadku, będzie to oznaczać konieczność czasochłonnej naprawy danych. W najgorszym – całkowitą ich utratę. Wszystko to dobitnie udowadnia, że środowiska wirtualne, tak jak środowiska fizyczne, wymagają dobrego rozwiązania do wykonywania kopii bezpieczeństwa.

Jeden backup dla serwerów fizycznych i wirtualnych

Rozwiązania wirtualizacyjne stawiają nowe wyzwania dla obecnych na rynku systemów kopii bezpieczeństwa danych. Aktualnie systemy te muszą sprostać wymaganiom administratora, którego środowisko jest niespójne, który zarządza różnymi typami aplikacji, pracującymi w oparciu o różne platformy oraz który na wykonanie backupu (tzw. okno backupowe) ma o wiele mniej czasu niż jeszcze kilka lat temu. Na szczęście, nowoczesne oprogramowanie do backupu podąża za ogólnoświatowym trendem i oferuje wsparcie zarówno dla wirtualnych jak i fizycznych systemów. Takie oprogramowanie potrafi wykonywać zaplanowane kopie migawkowe dla maszyn plikowych, jak również specjalistyczny backup aplikacji (tzw. hot backup) z wykorzystaniem agentów instalowanych na maszynie wirtualnej. Idealnie byłoby jeszcze, aby takim rozwiązaniem można było zarządzać z dowolnego miejsca na świecie, z poziomu wygodnego interfejsu przeglądarki Web. Większość administratorów po przeczytaniu ostatniego zdania lekko się uśmiechnie i skwituje całość jednym słowem – Utopia. A jednak. Na rynku istnieją rozwiązania, które dają takie możliwości.

Dwa sposoby na backup maszyny wirtualnej

Wyróżniamy dwa typy kopii bezpieczeństwa maszyn wirtualnych – na poziomie hyperwizora oraz za pomocą agenta instalowanego na maszynie wirtualnej. Pierwsze rozwiązanie, umożliwia wykonywanie migawek działającej maszyny bez konieczności jej zatrzymywania, a wszystko to poprzez bezpośrednią komunikację z hyperwizorem. Taki backup w przypadku rozwiązań Arkeia, w dniu, w którym niniejszy tekst powstawał, możliwy jest dla użytkowników korzystających z rozwiązań firm VMware Vsphere, Microsoft Hyper-V oraz Citrix XenServer. Dwa pierwsze rozwiązania dostarczają producentom systemów backupu odpowiednie API, pozwalające na bezpośrednią komunikację z hyperwizorem, kontrolę nad procesem wykonywania migawek i definiowanie miejsca ich składowania. W przypadku rozwiązań firmy Citrix, podobną funkcjonalność uzyskać można poprzez specjalistyczne skrypty. Backup migawkowy nie jest jednak zalecany w przypadku, gdy na maszynie wirtualnej pracuje aplikacja wymagająca hot backupu. Wówczas, tak jak w przypadku backupu maszyny fizycznej, koniecznym jest zainstalowanie na maszynie wirtualnej wyspecjalizowanego agenta do backupu tejże aplikacji. W przypadku rozwiązań Arkeia, administrator może wybrać i skorzystać z ponad stu agentów do hot backupu, aby zapewnić bezpieczny backup aplikacji, które ma we własnym środowisku.

Jeszcze jedna wada backupu migawkowego

Backup migawkowy, prócz opisanej już wady, posiada jeszcze jedną słabość, a mianowicie znacząca ilość zajmowanego miejsca na dysku. Wszystko przez to, że wykonanie migawki „zamraża” całość operacji maszyny wirtualnej łącznie z zawartością jej dysków twardych, pamięci RAM, a nawet buforów kart sieciowych. Do tego, hyperwizor dołącza swoje informacje, niezbędne aby później możliwe było poprawne uruchomienie maszyny. Wszystkie te informacje po zapisaniu migawki zajmują sporo miejsca na dysku hyperwizora, a co za tym idzie systemu backupu. Producenci systemów kopii bezpieczeństwa prześcigają się w nowatorskich rozwiązaniach, służących minimalizacji wagi danych, składowanych na nośnikach backowych. Z czysto utylitarnego punktu widzenia, najciekawiej prezentuje się backup z wykorzystaniem technologii Changed Block Tracking – w skrócie CBT – obecnej w produktach wirtualizacyjnych firm VMware oraz Microsoft. Działanie CBT jest proste, choć sama jego implementacja stanowi wyzwanie dla producentów rozwiązań do backupu danych. CBT opiera się bowiem o backup wyłącznie tych bloków danych, które zostały rzeczywiście wykorzystane przez maszynę wirtualną a nie tych które dostępną są dla systemu gościa. O tym, które bloki są w użyciu wie hyperwizor i taką informację przekazuje do aplikacji realizującej backup za pomocą wspomnianego już API. Dzięki temu, mamy pewność że backupujemy tylko istotne dane, a nie puste, niewykorzystane bloki.

Dobra deduplikacja danych – sposób na oszczędności
Kolejną metodą na zmniejszenie wolumenu danych podczas wykonywania kopii bezpieczeństwa jest deduplikacja. Technika ta bazuje na fakcie, iż bardzo często zdarza się, że dane zapisane na wielu maszynach wirtualnych są identyczne. Chociażby pliki samego systemu operacyjnego, które niejednokrotnie zajmują dziesiątki gigabajtów mogą być identyczne. To samo tyczy się wielokrotnych backupów tych samych systemów, w których dane ulegają nieznacznej tylko modyfikacji. Rozwiązania deduplikacyjne, dzielą takie dane na bloki a następnie poszukują identycznych bloków w kolejnych kopiach bezpieczeństwa. Jeśli system natrafi na blok identyczny z tym, który uprzednio został już zapisany, to taki blok nie jest powtórnie zapisywany. Dodatkowo, wszystkie zapisywane bloki poddawane są kompresji, aby jeszcze bardziej zmniejszyć objętość backupu. Oczywiście, taka operacja jest ogromnym obciążeniem dla procesora, pamięci i podsystemu dyskowego, jednakże korzyści wynikające z jej zastosowania z nawiązką to wynagradzają.

Deduplikacja danych – na źródle czy na serwerze?

Rozwiązań deduplikacyjnych obecnych na rynku jest wiele, szukając rozwiązania do backupu danych warto zainwestować w taki produkt, który zrealizuje zadania związane z deduplikacją już w czasie wykonywania procesu backupu. Daje to bowiem przewagę w postaci uproszczenia środowiska, a także umożliwia wybór czy procesem deduplikacji obciążyć maszynę źródłową czy docelową (serwer backupu). Przy obciążeniu maszyny źródłowej minimalizowana jest ilość przesyłanych przez sieć danych – co jest idealnym rozwiązaniem do backupu poprzez sieci WAN, np. do backupu odległych terytorialnie jednostek terenowych. Minusem tego podejścia jest znaczne obciążenie maszyny w momencie wykonywania kopii bezpieczeństwa. Z kolei deduplikacja z obciążeniem maszyny docelowej sprawia, że jedynym zadaniem maszyny źródłowej jest kopiowanie danych do serwera backupu. Serwer „w locie” powinien dane zdeduplikować i zapisać na bezpiecznym nośniku. Ten tryb, rzecz jasna, zalecany jest w sieciach o dużej przepustowości, jaką gwarantuje sieć LAN.

Deduplikacja na źródle sposobem na krótkie okno backupowe
Ostatnim istotnym elementem backupu środowiska wirtualnego, o którym często zapominamy jest tzw. „okno backupowe”, czyli czas, w którym środowisko firmowe nie jest w pełni obciążone i w którym możemy wykonać jego kopię bezpieczeństwa. Niestety, z roku na rok okno backupowe skraca się. Nowoczesne instytucje nie mogą sobie pozwolić na długi przestój, co stawia przed administratorami sieci dodatkowe niełatwe zadanie. Muszą oni sprostać wyzwaniu i backupować coraz więcej danych, w coraz rozleglejszych środowiskach i w coraz krótszym czasie. Wspomniana deduplikacja rozwiązuje również ten problem. Oczywistym jest fakt, że czas transportu oraz zapisu kopii zdeduplikowanych danych jest krótszy niż danych przed deduplikacją. Co ciekawe, niektórzy producenci systemów backupu idą o krok dalej.


Szybkość backupu

Nie trudno zauważyć dwie prawidłowości w odniesieniu do danych pobieranych za pośrednictwem ogólnodostępnej sieci Internet. Im szybszy dostęp do sieci posiadamy, tym dane pobierane są z większą prędkością. Dodatkowo, korzystamy z akceleratorów pobierania, które ten sam plik pobierają w kilku wątkach, co optymalizuje dostępną przepustowość sieci. Obie te techniki są wykorzystywane przez producentów rozwiązań do backupu. Szybkość wykonywania kopii bezpieczeństwa zależy przede wszystkim od prędkości medium transmisyjnego pomiędzy maszyną źródłową (np. hyperwizorem), a serwerem backupu. Najczęściej bywa tak, że maszyny te połączone są poprzez sieć LAN z wykorzystaniem standardu Ethernet. W większości współczesnych sieci, oznacza to transfer z prędkościami dochodzącymi do 1Gb/s. To dużo czy mało? Wszystko zależy od ilości danych, jakie mają być za pośrednictwem takiego łącza przesłane. Jeśli jest to kilka lub kilkanaście terabajtów, wówczas taki backup będziemy wykonywać wiele dni, a co za tym idzie przekroczymy czas zakładany w oknie backupowym.

Czy możesz kopiować dane poprzez SAN?

Rozwiązaniem tego problemu jest backup poprzez sieć Storage Area Network, popularnie zwaną siecią SAN. Jeśli korzystamy z takiej sieci, która zwykle opiera się o standard Fibre Channel, dysponujemy teoretyczną przepustowością nawet 10Gb/s. Co więcej, pomiędzy hyperwizorem, a serwerem backupu można agregować wiele interfejsów, tym samym gwarantując właściwie nieograniczone pasmo. Umożliwia to wykonywanie tzw. LAN-free backupów, czyli backupów, które sieć LAN wykorzystują jedynie do kontroli procesu backupu, a same dane transmitowane są poprzez sieć SAN. Aby było to możliwe, system kopii bezpieczeństwa powinien oferować wsparcie dla nowoczesnych sieci SAN, a także powinien być w stanie uzgodnić z hyperwizorem transfer danych z wykorzystaniem tejże sieci.

Ile wątków możesz kopiować równocześnie?

Aby w pełni wykorzystać prędkość łącza w sposób optymalny, można stworzyć zadania wielowątkowych kopii bezpieczeństwa. W takim wypadku system backupu powinien mieć możliwość wykonania wielu równoległych połączeń do hyperwizora celem równoległej transmisji różnych elementów. Dzięki temu powstaje możliwość przesyłania jednocześnie migawek wszystkich maszyn wirtualnych pracujących na naszej platformie wirtualizacyjnej. Różni producenci mają różne ograniczenia w tym zakresie. W przypadku rozwiązań Arkei, możemy przesyłać praktycznie nieograniczoną ilość strumieni danych równocześnie – limitem jest jedynie łącze i nasze potrzeby.

Adrian Dorobisz, Dagma.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ