Minimalizacja ryzyka podczas zmian w strukturze IT

0

Globalnie połączone, rozwijające się przedsiębiorstwa, wykorzystują sieć IT, by dołączać do struktury przedsiębiorstwa nowe oddziały i odległe jednostki oraz umożliwiać pracę jak największej liczbie zdalnych pracowników. Równocześnie przedsiębiorstwa redukują struktury zajmujące się administracją sieci, docelowo zwiększając efektywność pracy.

Inicjatywy takie jak konsolidacja centrów danych, przetwarzanie w chmurze, wirtualizacja oraz wdrożenia nowych aplikacji, mogą w tym pomagać, aczkolwiek są to poważne przedsięwzięcia, wymagające sporych środków i nakładów czasu. Często te inicjatywy wiążą się z ryzykiem. Planowanie zmian w infrastrukturze IT może być długim, nie pozbawionym błędów procesem, lecz dzięki dokładnemu i wszechstronnemu zrozumieniu sieci IT będziemy mogli płynnie wprowadzić ją na wyższy poziom.

By podejmować dobre decyzje oraz unikać problemów, organizacje muszą przygotować plan zawierający trafne i dokładne informacje dostępne przed, w trakcie i po procesach migracyjnych. Na przykład, jeśli firma będzie chciała przenieść jeden ze swoich serwerów, decydującym czynnikiem będzie zapoznanie się ze wszystkimi połączonymi ze sobą komponentami i bazami danych, tak by zachować strukturę po przeniesieniu. Bez precyzyjnej wiedzy na temat ścieżki dostarczania całościowych usług, łatwo o błędną konfigurację nowego środowiska i awarie. Organizacje powoli zdają sobie sprawę, że dokumentacje, wykazy i inne zestawienia rzadko są aktualne, a ludzie, którzy je tworzyli już się tym nie zajmują, więc wiarygodność tych dokumentów może być niedostateczna.

W celu poprawy skuteczności procesu planowania, organizacje próbowały takich rozwiązań jak np. ręczne spisywanie zasobów i fizycznych komponentów infrastruktury IT, czy wykorzystywanie istniejących agentów architektury klient-serwer lub narzędzi opartych na skanowaniu. Powyższe metody są jednak czasochłonne, kosztowne i ograniczone w swojej funkcjonalności. Co ważniejsze, te rozwiązania mogą być niekompletne i mogą generować nowe problemy, takie jak spadek wydajności sieci, czy brak odpowiedniego wglądu w sieć, niezbędnego do identyfikacji oraz rozwiązywania problemów związanych z wydajnością sieci.

Prawidłowe podejście zakłada dokładniejsze planowanie oraz szybsze identyfikowanie i rozwiązywanie problemów. Aby to osiągnąć, organizacje korzystają z narzędzi zarządzających wydajnością sieci w celu uzyskania całościowego wglądu w nowe środowisko i wykrywania wczesnych sygnałów o spadku wydajności. Narzędzia te stają się coraz bardziej wyspecjalizowane, posiadają dodatkowe opcje wyszukiwania i mapowania zależności, które wykraczają daleko poza wychwytywanie pakietów danych i monitorowanie ruchu w sieci.

Zarządzanie wydajnością sieci to już nie tylko planowanie zapotrzebowania, zbieranie i analizowanie wydajności aplikacji sieciowych, czy monitorowanie problemów. Zarządzanie wydajnością sieci rozwija się w kierunku zarządzania wydajnością usług i aplikacji sieciowych, traktowanych całościowo, a nie fragmentarycznie. Aby działy IT mogły monitorować efektywność swoich usług w całej organizacji, muszą najpierw zrozumieć w jaki sposób przebiega proces dostarczania usług użytkownikowi końcowemu. To wymaga zorientowania we wszystkich elementach składowych: kontrolerach dostarczania aplikacji, serwerach webowych, serwerach uwierzytelniających, serwerach aplikacji oraz bazach danych. Te komponenty działają razem, by dostarczyć kompletną usługę.

Wysoki poziom wglądu w sieć jest również kluczowy dla zminimalizowania ryzyka związanego ze zmianami struktury IT. Im wcześniej wszystkie zasoby i podzespoły zostaną zidentyfikowane, tym szybciej zmiany będą mogły zostać wdrożone. To jednak nie wszystko. Rozwiązanie musi także gwarantować, że kluczowe współzależności nie zostaną przeoczone (np. by nie został wyłączony ważny serwer, o którym myślano że nie jest w użyciu). Ryzyko możemy zminimalizować dzięki monitorowaniu przepływu danych w sieci, rozwiązaniu które rozpoznaje kiedy serwer jest traktowany jako klient, a kiedy jako serwer.

Niektóre rozwiązania do zarządzania wydajnością sieci podążają w kierunku wyposażania struktur IT w wyspecjalizowane narzędzia, dające pewność, że sieć utrzyma optymalną wydajność do prowadzenia biznesu. Wyodrębnienie się możliwości rozpoznawania aplikacji i mapowania zależności – application discovery and dependency mapping (ADDM) – z tradycyjnych narzędzi do zarządzania wydajnością sieci może obecnie przyspieszyć kompleksowe inicjatywy IT dzięki szybkim, trafnym i kompletnym opisom komponentów sieci IT i zależności między nimi. Rozwiązania ADDM sprawdzają również wydajność oraz rozwiązują problemy przed, w trakcie i po zmianach w strukturze IT, co jest korzystniejsze od tradycyjnego skanowania, czy też rozwiązań opartych na agentach.

Działy IT zaczynają korzystać z tych narzędzi, by zbudować sprawną infrastrukturę, nawet jeśli już opierają się na nowych technologiach, takich jak cloud computing czy konsolidacja centrów danych. Rozwiązania ADDM umożliwiają odpowiednie rozmieszczenie struktury IT obecnie i w przyszłości, jeśli organizacje postawią na kontynuację wprowadzania usprawnień technologicznych, które współgrają z celami biznesowymi.

Jacek Kuźmicki, Dyrektor d/s Strategii i Rozwoju Biznesu, Riverbed Technology

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ