Przez backup do dostępności

0

Za sprawą nowych funkcji, jak zarządzanie migawkami, wykorzystanie chmury czy ochrona maszyn wirtualnych, nowoczesne oprogramowanie do backupu daje znacznie większe możliwości niż tylko proste przywracanie danych po awarii.

Presja, żeby systemy informatyczne działały bez przerwy i dane były stale dostępne, jest dzisiaj większa niż kiedykolwiek. Dobitnie pokazała to awaria ePUAP, do której doszło w maju 2016 r. Zdarzenie mogłoby przejść bez większego echa gdyby nie fakt, że przywrócenie tego systemu do działania zajęło 2 dni. Według analityków z IDC w przypadku krytycznych aplikacji normą są wartości docelowego czasu odzyskiwania (RTO) i docelowego punktu odzyskiwania (RPO) poniżej czterech godzin, a jeśli chodzi o aplikacje o absolutnie najwyższym priorytecie, wartości poniżej godziny nie należą do rzadkości. Zapotrzebowanie na skrócenie czasu odtworzenia i przywrócenie do stanu docelowego potwierdzają analizy przeprowadzone przez agencję Forrester. Większość przebadanych pracowników działów IT wskazało na zwiększenie wymogów w zakresie parametrów RTO (57%) i RPO (61%) w ciągu ostatnich 12 miesięcy.

Jak podaje Veeam Availability Report 2016, aż 99% badanych organizacji obecnie modernizuje swoje centra danych lub planuje to niebawem zrobić. Głównym czynnikiem, który za tym stoi, jest zagwarantowanie nieprzerwanej działalności. Takiej odpowiedzi udzieliło 71% badanych. Według wspomnianego raportu godzina przestoju kosztuje przedsiębiorstwa średnio 80 tys. dolarów. Natomiast utrata danych spowodowana godziną przestoju to średnio koszt 90 tys. dolarów. Coraz częściej przerwy w dostępie do danych i systemów to jednak nie tylko straty finansowe, ale też uszczerbek na wizerunku, utrata przywiązania klientów oraz negatywne konotacje z marką. To trudno mierzalne korzyści, ale w nasyconym, mocno konkurencyjnym rynku działającym 24/7 mają kolosalne znaczenie.

Prawdopodobieństwo wystąpienia nieplanowanego przestoju w firmach jest wysokie. W badaniu przeprowadzonym przez analityków z agencji Forrester niemal połowa ankietowanych firm doświadczyła awarii lub przerwy w funkcjonowaniu w ciągu ostatnich 12 miesięcy. Systemy i dane z reguły są niedostępne z dość prozaicznych, których potencjalnie można uniknąć. Wśród firm, które doświadczyły przestoju w ciągu ostatnich 12 miesięcy najczęstszymi przyczynami tych zdarzeń były awarie sprzętu IT (43%), sieci (37%), oprogramowania IT (35%) oraz zasilania (35%). Istotną rolę odgrywa również czynnik ludzki. Szkodliwe osoby zarówno wewnątrz (15%), jak i na zewnątrz firmy (24%), oraz błędy ludzkie (21%) powodowały przerwy w dostępności. Wiele błędów operacyjnych jest spowodowanych właśnie przez człowieka.

Aż 84% organizacji, jak pokazuje raport przygotowany przez Veeam, doświadcza tzw. „deficytu dostępności”, tzn. że nie są w stanie spełnić oczekiwań użytkowników dotyczących ciągłości działania. W podobnym tonie wypowiadają się analitycy Forrestera. Respondenci z działów IT wskazują, iż średni docelowy czas RTO dla aplikacji kluczowych dla firm wynosi 3,5 godziny, natomiast średni rzeczywisty czas przywrócenia działania – 4,4 godziny. Sektor IT nie jest w stanie również spełnić wymogów dotyczących czasu RPO (pożądana wartość to średnio 2,6 godziny) – tworzenie kopii zapasowych trwa przeciętnie 4,2 godziny. Jak czytamy w raporcie Veeam, ma to miejsce, mimo że niemal wszyscy respondenci w ostatnich dwóch latach zwiększyli wydatki na rozwiązania, które prowadzą do skrócenia przestojów w działaniu aplikacji (96%) oraz gwarantują dostęp do danych (94%). To pokazuje, że organizacje mają jeszcze wiele do zrobienia, aby osiągnąć oczekiwane wartości wskaźników czasu i punktu przywracania danych.

Dobre praktyki ciągłości działania

Analitycy z IDC opracowali kilka zaleceń związanych z backupem, które prowadzą do poprawy dostępności danych i aplikacji. Po pierwsze, należy dążyć do skrócenia czasu przywracania. Ważnym elementem prowadzącym do tego celu jest ciągłe testowanie kopii zapasowych w celu sprawdzenia, czy w razie awarii uda się odzyskać z nich dane. Kolejną funkcją przyspieszającą odzyskiwanie jest wykorzystanie migawek.

Po drugie, należy nadać pierwszeństwo wirtualizacji, ponieważ większość aplikacji, w tym krytyczne, działa obecnie w tym środowisku. Dlatego rozwiązanie do ochrony danych powinno być dobrane pod kątem specyfiki środowisk zwirtualizowanych.

Po trzecie, ważna jest automatyzacja, dzięki której można obsługiwać większe ilości danych oraz stworzyć warunki do zwiększenia dostępności centrum danych. Automatyzacja obejmuje kilka aspektów, np. testowanie kopii zapasowych, operacje przywracania i monitorowania infrastruktury backupu w celu optymalizacji jej działania.

Po czwarte, trzeba modernizować systemy backupowe, aby lepiej wykorzystywać przechowywane dane biznesowe, poprawić parametry RTO i RPO oraz usprawnić zarządzanie pamięciami masowymi i zwiększyć wykorzystanie deduplikacji. Przykładowo, nowoczesne rozwiązania umożliwiają IT udostępnianie przechowywanych danych biznesowi na potrzeby prac rozwojowych czy procesów analitycznych.

Po piąte, istotnym wymaganiem wobec systemów backupowych jest możliwość śledzenia stanu infrastruktury kopii zapasowych oraz wartości wskaźników (np. RTO i RPO) oraz znajomość ewentualnych problemów. Funkcje monitorowania i ostrzegania w czasie rzeczywistym umożliwiają identyfikowanie problemów z wydajnością i kopiami zapasowymi oraz ich usuwanie, zanim negatywnie wpłyną na działalność operacyjną.

Po szóste, warto korzystać z usług chmurowych jako dodatkowej lokalizacji na potrzeby odzyskiwania po awarii lub do długookresowego przechowywania kopii zapasowych.

Technologie szybkiego przywracania

Stosuje się wiele rozwiązań, które prowadzą do poprawy ciągłości działania. Co istotne, przy modernizowaniu centrum danych najbardziej poszukiwanymi funkcjami są szybkie przywracanie (59%) i zapobieganie utracie danych (57%). W tym kontekście interesujące są szczególnie systemy backupowe, które w ostatnich latach były bardzo intensywnie rozwijane. Dzięki nowym metodom tworzenia kopii zapasowych i przywracania danych można stale poprawiać wspomniane parametry RTO i RPO. Niektóre technologie są tak szybkie, że mówi się wręcz o natychmiastowym przywracaniu.

Praktyka nocnego zapisywania kopii zapasowych na taśmach odchodzi w przeszłość, a wybór rozwiązań i technologii do backupu jest dzisiaj większy niż dotychczas. Niektóre, jak ciągła ochrona danych, są na rynku już na tyle długo, że większość specjalistów IT pewnie zdążyła się już z nimi zapoznać. Jednakże są również relatywnie nowe, mniej znane metody backupu.

„Duże znaczenie ma prostota rozwiązania backupowego i jego niezawodność. Jaki sens ma bowiem zabezpieczanie samego systemu do zabezpieczania?” – mówi Tomasz Krajewski, Presales Manager w firmie Veeam. „Rozwiązanie musi być po prostu odporne na awarie i łatwe do przywrócenia po całkowitej katastrofie. Dobrze, żeby nawet po awarii całego systemu tworzenia kopii zapasowych same backupy dało się w miarę łatwo i szybko odtworzyć jakimś prostym narzędziem.”

Migawki (snapshoty)

Ta metoda ochrony danych jest w użyciu do kilku lat, ale powszechnie panuje przekonanie, że to tylko wygodny dodatek, a nie alternatywa dla backupu. To jednak zaczyna się zmieniać. Migawek nie traktowana jako w pełni wartościowego mechanizmu ochrony danych z kilku powodów. Przykładowo, snapshoty z reguły są przechowywane w tym samym urządzeniu, które mają chronić. Jeśli coś stanie się z tym urządzeniem, może dojść do utraty zarówno oryginalnych danych jak i migawek. Dodatkowo wcześniej migawki nie uwzględniały specyfiki chronionych aplikacji, co mogło prowadzić, m.in. do problemów z odzyskiwaniem. Niektórzy producenci zaczęli uzupełniać te braki, umożliwiając zapis snapshotów dostosowanych do aplikacji. Ponadto pojawiła się technologia tzw. płaskich backupów, wprowadzona, aby chronić migawki.

Podstawowa koncepcja tego rozwiązania polega na tym, że migawki traktuje się jako pierwszą linię obrony w przypadku utraty danych. Jeśli jednak utracone zostaną zarówno dane, jak i migawki, to migawki są przywracane z kopii zapasowych. Różnica między płaskim a standardowym backupem polega na tym, że migawki są kopiowane na inne urządzenia bez użycia oprogramowania backupowego czy media serwera. Co więcej, migawki pozostają w oryginalnym formacie.

Technologia zapisywania migawek również się rozwija. Zamiast korzystać z metody Copy-on-Write (COW) migaweki można tworzyć metodą Redirect-on-Write (ROW), która niemal nie wpływa negatywnie na wydajność aplikacji. Dzięki temu snapshoty można tworzyć znacznie częściej, skracając wartość parametru RPO.

Hybrydowy backup z użyciem chmury

Backup lokalny cechuje się dużą szybkością zapisu i niezawodnością, ale jednocześnie może być kosztowny do wdrożenia ze względu na wymagania sprzętowe. Jeśli centrum danych ulegnie zniszczeniu, to samo stanie się z przechowywanymi lokalnie kopiami zapasowymi. Dlatego dobrą alternatywą jest backup w chmurze, ponieważ wtedy kopie zapasowe są bezpiecznie przechowywane w innej lokalizacji bez przewożenia nośników danych (np. taśm). Wadą jest przepustowość, która powoduje, że przywracanie z chmury trwa dłużej niż z lokalnych kopii.

Hybrydowy backup łączy zalety obu technik – kopie zapasowe są najpierw zapisywane lokalnie, a następnie replikowane do chmur. W ten sposób można jednocześnie mieć możliwość szybkiego przywrócenia, a jednocześnie chronić dane w chmurze. Z reguły jest to realizowane przez urządzenie, które służy jako wirtualna biblioteka taśmowa oraz bramka do chmury.

W przyszłości na pewno powszechne będzie odtwarzanie do i z chmury. Pierwszy przypadek będzie miała miejsce, kiedy chmura publiczna będzie używana jako centrum zapasowe – tanie w utrzymaniu, które jest wyłącznie kosztem, a nie inwestycją. Takie podejście do tworzenia rozwiązań DR już teraz jest coraz częstsze. Z drugiej strony coraz więcej usług jest uruchamianych w chmurze, jako podstawowym centrum danych. Dużo danych jest generowanych właśnie tam, a nie w lokalnym środowisku IT. Dlatego rozwiązania do backupu powinny rozwijać się właśnie w kierunku zabierania danych z chmury i przetrzymywania ich do w lokalnym centrum danych. Dane powinny być przechowywane również lokalnie, aby mieć do nich dostęp po zakończeniu korzystania z usługi chmurowej.

Błyskawiczne przywracanie maszyn wirtualnych

Z takich funkcji można korzystać już od kilku lat i są one jednymi z najbardziej przydatnych. Tradycyjne operacje przywracania z reguły przebiegają dość wolno i w wielu przypadku zbyt długo, żeby dało się to zaakceptować. Systemy backupu potrafią jednak przywracać maszyny wirtualne natychmiast po wystąpieniu awarii. Ten mechanizm bazuje na backupach przechowywanych na dyskach twardych. Ponieważ kopie przechowywane na dyskach cały czas są dostępne, maszyny wirtualne w razie awarii są uruchamiane bezpośrednio z kopii zapasowej. W takiej sytuacji używane są również migawki, żeby nie doszło do modyfikacji backupu maszyny wirtualnej. W trakcie, gdy działa zapasowa maszyna wirtualna, jej oryginał jest przywracany. Kiedy zacznie działać, przejmuje swoje zadania od maszyny zapasowej. Warto odnotować, że większość głównych producentów rozwiązań do backupu oferuje możliwość natychmiastowego przywracania, ale stosuje różne nazewnictwo dla tej funkcjonalności.

 

Wrogowie dostępności

Według analityków z IDC najczęstsze trudności na drodze do osiągnięcia wysokiej dostępności to koszty i złożoność infrastruktury IT. Są to skutki kilku czynników:

  • Duża złożoność środowisk IT, które dzisiaj często obejmują zasoby lokalne i w chmurze publicznej oraz wielowarstwowe aplikacje. Krajobraz dodatkowo skomplikowała wirtualizacja.
  • Fragmentacja danych i aplikacji, które mogą znajdować się na serwerach fizycznych i wirtualnych (dodatkowo w różnych rozwiązaniach wirtualizacyjnych) lub w chmurze. Do tego dochodzi potrzeba przetwarzania ustrukturyzowanych i nieustrukturyzowanych danych. W efekcie dotychczasowe narzędzia do ochrony danych nie są w stanie spełniać wszystkich wymagań wydajnościowych i kosztowych.
  • Przestarzałe narzędzia do ochrony danych znajdujące się wciąż w użyciu z powodu niedostatecznych inwestycji w tym obszarze. To często efekt bezczynności wynikającej z postawy „lepiej nie ruszajmy systemu, który działa”.

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ