Wirtualizacja tworzy nowe wyzwania – jak sobie z nimi radzić?

0

Centralizacja zasobów IT i danych niesie korzyści, jednak istnieją dwa główne zastrzeżenia, które organizacje uczestniczące w tym trendzie powinny uwzględnić. Pierwsze z wyzwań wiąże się z wydajnością aplikacji, drugie – ze zwiększaniem zależności od wszystkich scentralizowanych zasobów IT. Oto garść porad, jak sobie z nimi radzić.

W ciągu dwóch ostatnich dekad nastąpiło przejście do modelu zdecentralizowanego przetwarzania danych, który wiąże się z globalnym rozpraszaniem działalności firm. W rezultacie ilość danych i zasobów IT znajdujących się poza korporacyjnymi centrami danych znacznie wzrosła, a menedżerowie IT obecnie coraz częściej rozważają konsolidacje swojej infrastruktury. Tym bardziej, że niesie ona ze sobą zmniejszenie złożoności, obniżenie kosztów, zwiększenie stopnia wykorzystania zasobów i ochrony swoich danych. Konsolidacja zasobów IT w ostatnich latach stała się synonimem terminu „wirtualizacja”, ponieważ umożliwia ona uproszczenie administracji IT i usprawnienie zarządzania zasobami.

Wprawdzie centralizacja zasobów IT i danych w oczywisty sposób zapewnia powyższe korzyści, jednak istnieją dwa główne zastrzeżenia, które organizacje uczestniczące w tym trendzie powinny uwzględnić. Pierwsze z wyzwań wiąże się z wydajnością aplikacji, drugie – ze zwiększaniem zależności od wszystkich scentralizowanych zasobów IT.

Konsolidacja najnowszym trendem 2009
W związku z globalizacją biznesu ponad dwie trzecie pracowników pracuje poza centralami firm – w oddziałach, w siedzibach klientów, na drogach, w domu. Wraz ze zmianami zachodzącymi w demografii siły roboczej ilość danych w oddziałach rośnie w gwałtownym tempie, często podwajając się w ciągu roku. W reakcji na rozproszenie danych i zasobów IT coraz więcej firm z powrotem przenosi serwery i aplikacje z oddziałów, aby skupić je w centrach danych. Okazuje się to skutecznym sposobem na zarządzanie i ochronę danych przy równoczesnej redukcji kosztów i uproszczeniu administracji.

Rok 2008 należał do wirtualizacji. Wraz z trendem konsolidacji zasobów IT na pierwszy plan wśród podejmowanych inicjatyw w największych firmach, niezależnie od segmentu rynku, wysunęła się wirtualizacja serwerów. Przedsiębiorstwa inwestowały duże pieniądze w wirtualizację swojej infrastruktury IT w nadziei, że dzięki temu zaoszczędzą energię i czas. A to przełoży się bezpośrednio na ich wyniki finansowe, co w ostatnim kwartale szczególnie nabrało wartości. Firma IDC, jedna z największych firm zajmujących się badaniem rynku teleinformatycznego przewiduje, że liczba serwerów używanych do uruchamiania maszyn wirtualnych zwiększy się znacząco między rokiem 2005 a 2010. A już w 2010 roku w celu uruchamiania maszyn wirtualnych zostanie dostarczonych 1,7 miliona serwerów fizycznych — to 14,6% wszystkich dostaw w zestawieniu z 4,5% w 2005 roku.

Problem wydajności aplikacji
W przypadku większości współczesnych organizacji konsolidacja infrastruktury IT stwarza duże możliwości redukcji kosztów, ale obniżenie wydajności aplikacji stanowi poważny kompromis, który w pewnych sytuacjach sprawia, że aplikacje stają się bezużyteczne w sieci WAN. W takich sytuacjach przedsiębiorstwa musza się zdecydować albo na rezygnację z działań konsolidacyjnych, albo na ponoszenie ryzyka występowania utrudnień dla końcowych użytkowników aplikacji. W niektórych przypadkach firmy podejmują projekt konsolidacji tylko po to, by go zawiesić z powodu niekorzystnego wpływu na pracę aplikacji biznesowych i użytkowników końcowych.

Przeciążenie sieci WAN to kolejny potencjalny problem. Ponieważ więcej danych przepływa przez sieć i działa w niej więcej aplikacji, łącza WAN mogą być często zapełnione. Może to mieć również negatywny wpływ na wydajność aplikacji, a problem ten staje się tym bardziej złożony, jeśli dochodzi do konsolidacji infrastruktury i serwerów. Często występuje błędne przekonanie, jakoby przepustowość łączy była jedynym źródłem słabej wydajności aplikacji w sieci WAN, choć w rzeczywistości główne przyczyny tego zjawiska można pogrupować w trzy główne kategorie: przeciążenie sieci, nadmierny narzut i opóźnienie warstwy transportowej oraz niewydolność protokołów aplikacji.

Większość menedżerów IT zdaje sobie sprawę, że sieci są kluczowe dla biznesu – jeśli sieć jest powolna, taki jest też biznes. Żadne przedsiębiorstwo nie może pozwolić sobie na występowanie problemów z korzystaniem z aplikacji przez któregokolwiek z użytkowników końcowych, bez względu na to, czy znajduje się on w centrali, czy w oddziale. Dlatego optymalizacja wydajności aplikacji jest ważnym i często nieuwzględnianym elementem konsolidacji.

Problem zależności od scentralizowanych zasobów IT
Przy rosnącej zależności od technologii informatycznych sukces organizacji w dużym stopniu zależy od dostępności infrastruktury IT, danych i aplikacji. Z czasem, wraz ze wzrostem wartości informacji zwiększającym wpływ awarii na działalność firm, znacząco rośnie również koszt przestojów. Wraz ze staraniami organizacji, które mają na celu skonsolidowanie oddziałów i serwerów oraz zwirtualizowanie infrastruktury, dochodzi do ogromnego wzrostu liczby użytkowników korzystających ze skonsolidowanych zasobów IT.

W niektórych przypadkach liczba użytkowników jednego fizycznego serwera mogła wzrosnąć z 200 do ponad 10 tysięcy, gdy używają oni wielu serwerów wirtualnych na tej samej maszynie. Koszty przestojów zostały oszacowane przez stowarzyszenie FCIA (Fibre Channel Industry Association). Według jej badań potencjalny średni koszt godziny przestoju dla głównych branż waha się od niemal 8 milionów dolarów dla firmy brokerskiej i 2,8 milionów dla firm energetycznych oraz przetwarzających dane kart kredytowych do 1,6 milionów dolarów dla zakładów przemysłowych. Konsekwencje i koszty przestojów zwiększają się w tym scenariuszu wielokrotnie z powodu ogromnej ilości użytkowników dotkniętych awarią. Poza tym konsolidacja, w ramach której firmy przenoszą do centrali serwery z oddziałów i odległych centrów danych, ogranicza geograficzną dywersyfikację rozmieszczenia usług IT i wystawia je na większe ryzyko awarii regionalnej lub występującej w konkretnym centrum danych. Wprawdzie wirtualizacja serwerów pomaga znacznie zredukować czas potrzebny do przywrócenia działania na wypadek awarii, jednak niekoniecznie chroni ona przed awariami centrów danych lub utratą czy też zniszczeniem danych.

W rezultacie, wraz z przyjmowaniem modelu skonsolidowanej infrastruktury przez coraz większą liczbę przedsiębiorstw, awaryjne odzyskiwanie danych (ang. Disaster Recovery, w skrócie DR) i ciągłość prowadzenia działalności nie są już kwestią wyboru – to konieczność.

Jest to obszar, w którym optymalizacja WAN może ponownie zwiększyć dostępność oraz wydajność skonsolidowanej i zwirtualizowanej infrastruktury. Nie tylko zwiększa ona wydajność aplikacji, ale także kładzie podwaliny pod systemy DR. Przykładowo strategie tworzenia kopii zapasowych i odzyskiwania danych wymagają, aby dane były replikowane na zewnątrz. Jeśli jednak łącze WAN nie jest w stanie zapewnić wystarczającej przepustowości, okresy tworzenia kopii zapasowych/replikacji nie mogą zostać dotrzymane. Poza tym nadmierne zużycie przepustowości łącza tworzy problemy dla innych aplikacji, powodując spadek wydajności wielu obszarów działalności firmy. Rozwiązania do optymalizacji WAN mogą radykalnie zwiększyć prędkość replikacji danych lub skrócić czas tworzenia kopii zapasowych. Niektórym organizacjom udaje się zredukować odstępy pomiędzy tworzeniem kopii zapasowych/replikacją z 24 do nawet 2 lub 3 godzin.

Poza tym bezczynne centra DR tworzą znaczący koszt dla działów IT, a większość menedżerów potwierdza, że blisko jedna trzecia kosztów związanych z systemem DR to koszt łącza. Dzięki redukcji zużycia łączy rozwiązania do optymalizacji WAN mogą także pomóc firmom w zmniejszeniu okresowych kosztów związanych z systemem DR poprzez zmniejszenie wydatków związanych z przepustowością łączy. Ponadto firmy często dostarczają wolniejsze łącza do centrów DR lub zapasowych centrów danych, gdy więc potrzebne jest zastąpienie głównego centrum w razie awarii, wydajność aplikacji często dramatycznie spada, co sprawia, że są one bezużyteczne. Efekt jest taki sam, jakby doszło do całkowitej awarii, mimo że aplikacje i dane są dostępne w centrum DR. Dzięki optymalizacji WAN organizacje uzyskują dostęp do danych i aplikacji w centrum DR, tak jakby były one dostępne lokalnie, ponownie zapewniając dostęp do informacji na czas wtedy, gdy jest to najbardziej potrzebne.

Wojciech Gołębiowski, regionalny dyrektor sprzedaży w Riverbed Technology

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ