Backup w erze wirtualizacji

0

W ciągu jednej minuty powstaje na świecie 10 nowych maszyn wirtualnych. Czy przechowywane na nich aplikacje i dane są w pełni bezpieczne? To duże wyzwanie, któremu muszą sprostać producenci rozwiązań i przedsiębiorcy.

W świecie IT na przestrzeni ostatnich kilku lat zaszły głębokie zmiany. Spory udział ma w nich wirtualizacja. W początkowej fazie korzystali z niej inżynierowie i twórcy aplikacji, wykorzystując środowisko do testów. Jednak ostatnie lata przyniosły ze sobą rozkwit wirtualizacji. Przełom nastąpił w 2009 roku, kiedy to po raz pierwszy w historii w liczba wirtualnych serwerów przekroczyła liczbę fizycznych maszyn. Nie był to jednorazowy incydent. Ta tendencja postępuje i wszystko wskazuje na to, że w już przyszłym roku na świecie będzie dwa razy więcej wirtualnych serwerów niż fizycznych. Analitycy z IDC wyliczyli, że przez wirtualne maszyny przechodzi około 10 procent wszystkich danych, a w 2015 rok odsetek ten będzie dwukrotnie wyższy. To wartości wobec których trudno przejść obojętnie.

Dwie strony wirtualizacji

Wirtualizacja wprowadziła nowy porządek w branży technologicznej. Technologia pozwoliła przede wszystkim na racjonalne zużycie zasobów. Przeciętna firma wykorzystuje zaledwie 20 procent możliwości serwerów fizycznych. W wirtualnym świecie tego typu marnotrawstwo nie ma racji bytu. Wirtualizacja umożliwiała firmom alokować zasoby IT w sposób zwiększający elastyczność działania, optymalizujący wydajność serwerów oraz wykorzystanie dostępnej przestrzeni dyskowej, a jednocześnie zmniejszający ilość prac administracyjnych. To duże udogodnienia. Ale wirtualizacja serwerów stawia przed firmami nowe wyzwania. – Wszyscy zachwycają się wirtualizacją, ale pojawiają się pewne obawy. Krytyczne dane czy aplikacje działają na kilku komputerach, a po wirtualizacji pracują na jednym serwerze. Dlatego warto zadać sobie pytania – jak wykonywać kopie zapasowe czy odzyskiwać maszyny wirtualne – zauważa Dariusz Jarecki z firmy Acronis. Podobne zagrożenia dostrzega Christian Hagen z DataCore Software. – Statystyki pokazują, że wiele projektów związanych z wirtualizacją serwerów zakończyło się niepowodzeniem ze względu na kłopoty w obszarze pamięci masowych. To trochę jak z budowaniem domu, nigdy nie zaczynamy od sufitu – mówi Hagen.

Powódź serwerów

Przechowywanie danych na wirtualnych serwerach, a zwłaszcza ich ochrona wymagają odpowiedniej strategii. Jej brak szybko zniweczy korzyści wynikające z konsolidacji i ekonomicznego wykorzystania zasobów. Szczególne trudności może sprawiać backup maszyn wirtualnych. W przypadku serwerów fizycznych sytuacja wydaje się być klarowna. Każdy serwer jest traktowany jako klient i chroni go rozwiązanie backupowe działające w sieci LAN lub SAN. W środowisku wirtualnym prosta relacja jeden do jednego nie ma racji bytu. Na jednym fizycznym serwerze funkcjonuje wiele wirtualnych maszyn, które wymagają backupu. Co gorsza, liczba wirtualnych serwerów przyrasta w bardzo szybkim tempie, mówi się nawet o powodzi serwerów. Tworzenie wirtualnych maszyn jest łatwe i stosunkowo tanie. Nierzadko w firmowych zasobach powstaje galimatias. Ile wirtualnych maszyn zostało utworzonych? Na jakich aplikacjach działają? Gdzie są przechowywane? To pytania, na które czasami nie potrafią udzielić odpowiedzi nawet działy IT. Osobną kwestię stanowi brak wiedzy o zabezpieczeniach chroniących wirtualne maszyny.

Czas na zmiany w kopiach zapasowych

Lawinowy przyrost danych, szybkie wdrażanie nowych aplikacji oraz wzrost znaczenia wirtualizacji nie pozostają bez wpływu na sposób tworzenia kopii zapasowych. Producenci opracowują nowe rozwiązania, które ułatwią zadanie zarówno małym firmom, jak i klientom korporacyjnym. Symantec zapowiada kontratak kopii zapasowych. Na czym ma on polegać? Motorem zmian ma być ochrona maszyn wirtualnych zintegrowana z kopiami zapasowymi, deduplikacja, zarządzanie migawkami, gotowe rozwiązania sprzętowe oraz kluczowe zmiany w modelu operacyjnym. – Chcemy objąć trzy światy jednym parasolem – tłumaczy Dariusz Jarecki. W wielu przedsiębiorstwach funkcjonują dwa środowiska – fizyczne i wirtualne, właściciele firm powoli przekonują się też do modelu cloud. To właśnie „trzy światy”, o których mówi menedżer Acronisu. Większość firm nie posiada skonsolidowanych narzędzi do tworzenia kopii zapasowych i odzyskania danych po awarii. Z badań przeprowadzonych przez firmę Acronis wynika, iż większość organizacji używa dwóch lub więcej narzędzi do ochrony danych. 53 procent respondentów zadeklarowało, że korzysta z oddzielnych rozwiązań dla środowisk fizycznych i wirtualnych. – Największym problemem jest istnienie wielu platform, systemów do zarządzania. Część danych zostało zwirtualizowanych, inne znajdują się w środowisku fizycznym i w chmurze. W rezultacie przedsiębiorcy, wykonujący kopie zapasowe, nie wiedzą z jakiego narzędzia korzystać – przyznaje Dariusz Jarecki. W dłuższej perspektywie czasu utrzymanie środowiska o tak dużym stopniu złożoności jest nierealne. Zresztą nie tylko producenci systemów do tworzenia kopii zapasowych dostrzegają problem. Widzą go również przedsiębiorcy. Aż 70 procent menedżerów IT, biorących udział w badaniu Acronis, przyznało, że największym wyzwaniem w środowisku hybrydowym jest przenoszenie danych pomiędzy środowiskiem fizycznym, wirtualnym i cloud. Najbliższa przyszłość rozwiązań do backupu maszyn wirtualnych rysuje się w jasnych barwach. Wśród firm rośnie świadomość potrzeby zastosowania narzędzi do wirtualnego backupu. TechTarget, wydawca internetowych serwisów, zapytał 225 europejskich menedżerów IT o priorytety w zakresie zakupów produktów storage w 2012 roku. Na pierwszym miejscu znalazły się rozwiązania do backupu maszyn wirtualnych, które uzyskały 39 procent wskazań. To dobry prognostyk dla producentów.

Wojciech Urbanek

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ