Konsolidacyjna nirwana w czterech krokach

0

Spróbuj powiedzieć swojej małżonce, że myślisz o zebraniu wszystkich domowych sprzętów i umieszczeniu ich w jednej szafie – spotkasz się z zaskoczeniem i wymownym uśmieszkiem. Dlaczego chciałbyś kwestionować coś, co dobrze się sprawdza?

Podobnie jest z inicjatywami konsolidacyjnymi w firmach – spotykają się one często z dezaprobatą. Spowodowane jest to ich złożonością, obawami o działanie sieci na znacznych odległościach, potencjalnymi opóźnieniami, a także ograniczeniami silosów w ramach jakich działają tradycyjne przedsiębiorstwa. A gdy wszystko idzie nie tak jak miało, dział IT musi szybko rozwiązać problemy lub nawet wycofać się z projektu. Tymczasem kierownictwo i użytkownicy kręcą głowami z niezadowolenia.

Jednakże nowoczesne organizacje myślą o firmie w szerszej perspektywie i badają możliwości wykorzystania najnowszych technologii wirtualizacji by zapewnić efektywną infrastrukturę centrum danych oraz rozszerzyć korzyści płynące z konsolidacji całego przedsiębiorstwa. Korzyści z dobrze zaplanowanej i zrealizowanej konsolidacji mogą nie tylko mieć wymiar finansowy, ale również mogą niwelować ryzyko przy jednoczesnym zwiększeniu wydajności i elastyczności biznesowej.

Każda strategia konsolidacyjna wymaga dokładnej analizy i planowania. Wszystkie poniżej opisane strategie wymagają obecności centrum danych, w którym dokonano już wielu inwestycji i które może być przykładem dla oddziałów, jak należy efektywnie i w kontrolowany sposób przeprowadzać zmiany.

1. Konsolidacja centrów danych

Wracając do analogii z szafą, czy nie byłoby czymś wspaniałym trzymanie wszystkich dokumentów podatkowych, zdjęć rodzinnych czy ważnych dla nas książek w jednym miejscu? Wyobraź sobie jak proste będzie znalezienie zeznań podatkowych w starannie zorganizowanych i odpowiednio oznakowanych szufladach. Korzyści płynące z posiadania takiej „wymarzonej szafy” są podobne do posiadania skonsolidowanego centrum danych.

Jednak pojawia się pytanie o to jak wyeliminować centra danych bez zakłócania wydajności i produktywności pracowników? Pierwszym krokiem jest analiza map zależności i poziomu wydajności aplikacji a następnie planowanie. Pozwoli to zmniejszyć ryzyko oraz przygotować się do nowych wyzwań. Mowa tu przede wszystkim o migracji danych i aplikacji bez przerw w prowadzeniu firmy. Z wybranych centrów danych, które mają przyjąć większe obciążenie, a także spośród pozostałych baz danych, które zostaną zamknięte, należy skopiować aplikacje i przesłać do pozostałych baz danych – dopiero wtedy należy przekierować użytkowników do nowego hosta. Aby przekierowywać użytkowników pomiędzy jednostkami i zwiększyć aktualną wydajność oraz niezawodność aplikacji możesz użyć kontrolerów dostarczania aplikacji (ADCs – Application Delivery Controllers). Kontrolery dostarczania aplikacji mają globalne oraz lokalne możliwości równoważenia obciążenia, które pozwalają na przemieszczanie zasobów aplikacji pomiędzy lokalizacjami, modernizację oraz zarządzanie podstawową infrastrukturą, a także dystrybucję obciążenia aplikacji między wieloma serwerami i centrami danych. Wszystko bez zakłócania użytkownikom dostępu do aplikacji.

Pozostałe centra danych będą musiały obsługiwać większa liczbę użytkowników, również z bardziej odległych miejsc sieci. Można zatem pomyśleć, że wymagana będzie większa przepustowość do obsługi ruchu w sieci WAN. Jednak nie jest to idealne rozwiązanie i w wielu przypadkach nie będzie konieczne. Opóźnienia w połączeniu z nieefektywnością protokołu aplikacyjnego są głównymi winowajcami prowadzącymi do powstawania wąskich gardeł w sieci WAN. Dzięki wdrożeniu rozwiązań optymalizujących sieć WAN pomiędzy pozostałymi centrami danych, a poszczególnymi oddziałami firmy (jeszcze przed przeniesieniem aplikacji) można przyśpieszyć migrację danych i aplikacji do nowej lokalizacji, jednocześnie mając pewność, że użytkownicy końcowi nadal będą mieli odpowiedni poziom wydajności.

2. Wirtualizacja dostarczania aplikacji

Czy idea w pełni zwirtualizowanych, wysoce zautomatyzowanych i bardzo wydajnych zasobów obliczeniowych przemawia do Ciebie? Warto zastanowić się jak infrastruktura, stanowiąca podstawę dla aplikacji hostowanych w Twoim centrum danych, może być skonstruowana, aby zrealizować tę wizję. Wirtualizacja serwerów, przydzielanie pamięci oraz technologie deduplikacyjne mogą zapewnić większą wydajność niż inwestycje infrastrukturalne, jednakże są one mniej przyjazne dla aplikacji. Oznacza to, że aplikacje wciąż pozostaną nieefektywne. Wzrost w liczbie zapytań użytkowników może powodować destabilizację w działaniu i awarię wielu ważnych serwerów aplikacji.

Kontrolery dostarczania aplikacji mogą poprawić wykorzystanie zasobów aplikacji poprzez zmniejszenie obciążenia zasobożernych funkcji takich jak kompresja, deszyfrowanie SSL i buforowanie treści. Kontrolery dostarczania aplikacji idą jeszcze o krok dalej i pomagają skalować oraz poprawiać wydajność aplikacji, które stają się coraz bardziej rozproszone i zwirtualizowane. Mogą być wdrażane na żądanie w każdym miejscu, w dowolnym czasie na dowolnej platformie – fizycznej, wirtualnej lub w chmurze – oraz co ważne, mogą być zarządzane centralnie. Daje to większy wybór i elastyczność odnośnie tego jak i gdzie rozłożyć zasoby ADC, dzięki czemu uzyskujesz większą kontrolę nad projektami wirtualizacyjnymi.

3. Centralizacja infrastruktury

Infrastruktura aplikacyjna jest obecna nawet w prowizorycznych serwerowniach i mikro-centrach danych w oddziałach wielu firm. Możesz wpłynąć na tę złożoność i poprawić bezpieczeństwo danych dzięki centralizacji infrastruktury aplikacyjnej. Pozwoli to uzyskać jeszcze większą oszczędność kosztów w centrach danych, w których wirtualizacja i automatyzacja prowadzą do najlepszych efektów. Należy jednak pamiętać, że przemieszczanie aplikacji wymaga takich samych analiz i planowania jak w przypadku zlikwidowania całego centrum danych czy tworzenia nowych lub zwiększania istniejących zależności w sieci WAN. Oznacza to dostosowanie się do odległości między głównym centrum danych, a użytkownikami końcowymi. Na szczęście można wykorzystać rozwiązanie optymalizujące sieć WAN, które przyśpieszy aplikacje w oddziałach lub lokalizacjach zdalnych. Dodatkowo wprowadzi wirtualną infrastrukturę serwera brzegowego (edge-VSI) w celu konsolidacji danych z oddziału w centrum danych oraz zastosuje Quality of Service (QoS), aby właściwie kontrolować ruch generowany przez aplikacje w sieci WAN, a tym samym lepiej wykorzystywać ograniczone zasoby sieciowe.

4. Redukcja infrastruktury IT w oddziałach

Lokalny serwer wydruku, DNS i serwery DHCP to usługi „brzegowe”, które opierają się wielu wysiłkom wkładanym w centralizację infrastruktury. Jednakże również te usługi mogą czerpać korzyści z takich innowacji jak wirtualizacja serwerów. Wiodące rozwiązania optymalizacyjne WAN pozwalają uruchamiać je na swoich urządzeniach, co pozwala na eliminację zbędnych serwerów, tym samym prowadząc do obniżenia kosztów związanych z utrzymaniem sprzętu i oprogramowania. Daje to również możliwość skorzystania z rozwiązania do zarządzania wydajnością sieci, rozpoznającego aplikacje. Dzięki temu możemy wychwycić detale dotyczące pakietów danych z istniejącej infrastruktury np. z routerów lub urządzeń do optymalizacji sieci WAN. Zapewnia to wgląd w ruch generowany w oddziałach bez konieczności zastosowania dodatkowego sprzętu np. sond lub dodatkowych kosztów licencyjnych. W końcu nie można kontrolować tego, czego się nie widzi, prawda?

Główne cele zaawansowanych strategii konsolidacyjnych to uzyskanie większej wydajności oraz możliwość usprawnienia oraz automatyzacji procesów IT. Realizacja czterech strategii omówionych powyżej może pomóc Ci osiągnąć trzy główne korzyści: użytkownicy w oddziałach będą zadowoleni z wydajności, IT zachowa całkowitą kontrolę, a firma będzie zadowolona z wysokich zwrotów z inwestycji w IT.

Jeżeli chodzi o niezawodny przepis na konsolidację domowego składzika bez irytowania współmałżonka… cóż, na pewno wrócimy do tego tematu.

Dominik Rogoziński, Regional Sales Manager Poland, Riverbed Technology

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ