Cztery kroki do sieci przyszłości

0

Coraz mniej jest na rynku firm, które nie rozważałyby wdrożenia projektów wirtualizacji i (re-)centralizacji – również z uwagi na rosnącą ekonomiczność takich rozwiązań.

Obecnie wirtualizacja coraz częściej stanowi podstawy techniczne do obsługi dynamicznej infrastruktury i stwarza najlepsze warunki do integracji przetwarzania w chmurze. Jednak tego typu projekty – siłą rzeczy – wiążą się ze znacznie większą zależnością od infrastruktury sieciowej. Zatem w jaki sposób firmy przystosowują swoją sieć do spełnienia wymogów przyszłości? Nieodzowne są przy tym następujące aspekty.

Konsolidacja i optymalizacja.

Aby uniknąć ryzyka od samego początku, należy zwrócić uwagę na całą infrastrukturę sieciową: zaczynając od użytkownika, poprzez sieć LAN lub WAN wraz z zastosowanymi protokołami komunikacji, aż po serwery. Należy przy tym uwzględnić krytyczne aspekty dostępności, wydajności, ew. opóźnień, przechowywania danych i bezpieczeństwa. Korzystanie z wirtualnego środowiska do celów biznesowych jest przecież zależne od tego, czy użytkownik może w dowolnej chwili oraz – mimo opóźnień nieuniknionych w sieci WAN – szybko uzyskać dostęp do swoich zasobów. Ponadto dostęp ten musi być stale objęty zabezpieczeniami, a także należy zagwarantować bezpieczeństwo informacji poprzez centralne przechowywanie danych według określonych zasad zgodności.

Szczegółowa analiza wirtualnej infrastruktury szybko ujawnia określone punkty, które z perspektywy użytkownika końcowego mogą mieć negatywny wpływ na wydajność. Tym samym uzyskuje się konkretne punkty wyjściowe dla działań optymalizacyjnych: parametry procesora i obsługi graficznej w urządzeniu końcowym muszą oczywiście spełniać określone wymogi, co do wydajności i wyświetlania – niezależnie od tego, czy chodzi o urządzenia Thin Client, Zero Client, czy chociażby smartfony. Do tego celu potrzebne jest oprogramowanie dynamicznie dopasowujące aplikacje do uwarunkowań po stronie klienta. Z kolei po stronie serwera zarówno parametry mocy procesora, jak i w szczególności parametry pamięci, muszą odpowiadać liczbie obsługiwanych zapytań użytkowników – a przecież pamięć masowa też nie może stać się wąskim gardłem komunikacji. Wirtualizacja po stronie serwera umożliwia znacznie wyższe obciążenie sprzętu – słowem: więcej instancji serwera na jedno urządzenie – a przede wszystkim dynamiczną alokację tych zasobów.

Współczesne rozwiązania wirtualizacyjne z reguły oferują szeroką gamę narzędzi i metod do optymalizacji scentralizowanych środowisk – zarówno w celu umożliwienia korzystania z hostowanych wirtualnych desktopów w wielu lokalizacjach, szybkiej transmisji danych w zdecentralizowanych środowiskach Windows lub uzyskania wysokiej wydajności usług w chmurze. W idealnym przypadku te rozwiązania płynnie łączą się ze sobą, tworząc spójną infrastrukturę.

Obsługa mobilnych urządzeń końcowych.

Wraz ze wzrostem liczby mobilnych użytkowników zwiększa się również liczba miejsc, urządzeń końcowych i sieci. To wszystko powoduje, że zarządzanie zdalnym dostępem staje się coraz bardziej złożone. Nie wystarczy samo przeanalizowanie przez dział IT strategii zdalnego dostępu pod kątem kwestii administracyjnych i aspektów bezpieczeństwa. Równie ważne jest zagwarantowanie stałego wysokiego komfortu pracy użytkowników we wszystkich, możliwych scenariuszach. Wielu z nich chce mieć możliwość dostępu do danych w dowolnym momencie i miejsca, korzystając z wybranego przez siebie urządzenia – bez jakichkolwiek ograniczeń.

Tym samym strategia mobilna musi zawsze uwzględniać kilka istotnych aspektów: warto na przykład postarać się o wprowadzenie centralnego dostępu na zasadzie Self Service do wszystkich potrzebnych aplikacji i danych, niezależnie od lokalizacji oraz z jednakowym interfejsem użytkownika na wszystkich urządzeniach końcowych. Oznacza to również możliwość dostępu do usług IT za pośrednictwem dowolnego połączenia sieciowego – bez zwiększania złożoności infrastruktury dla użytkownika i działu IT. Ważny jest również komfort obsługi aplikacji środowiska Windows i desktopów z systemem Windows w urządzeniach z ekranem dotykowym – na przykład poprzez dostosowane ich do intuicyjnego sterowania gestami.
Przykłady te pokazują, że często nie wystarczy samo ukierunkowanie na sterowanie i kontrolę nad mobilnymi urządzeniami końcowymi, za pomocą rozwiązania do zarządzania urządzeniami mobilnymi. Wdrażanie całościowej strategii mobilności wymaga w dzisiejszych czasach zastosowania pełnowartościowego rozwiązania do zarządzania mobilnością przedsiębiorstwa (Enterprise Mobility Management). Rozwiązanie to powinno oferować liczne funkcje, począwszy od zarządzania urządzeniami końcowymi, aplikacjami i danymi, poprzez monitorowanie korzystania z sieci, aż po obsługę takich procesów, jak logowanie/wylogowanie pracowników bądź wsparcie techniczne Helpdesk dla zdalnego dostępu.

Cloud Bridging: sąsiedztwo usług w chmurze i zwykłych aplikacji

Ten, kto w dzisiejszych czasach zastanawia się nad optymalnym przystosowaniem swojej infrastruktury do wyzwań przyszłości, nie może oczywiście zapominać o chmurze. Rzecz jasna, niektóre dane znacznie lepiej jest przechowywać we własnym centrum danych –i prawdopodobnie jeszcze długo się to nie zmieni. Dla aplikacji o znaczeniu mniej krytycznym lub takich, które są rzadziej wykorzystywane, model chmury hybrydowej wręcz sam się nasuwa.

Aby zapewnić sprawne połączenie, można skorzystać z rozwiązania zwanego Cloud Bridging, które umożliwiają podłączenie chmur zewnętrznych do własnego centrum obliczeniowego. Dzięki niemu aplikacje obsługiwane w chmurze idealnie wpasowują się w istniejącą infrastrukturę w firmie. Sieć dostawcy chmury staje się wówczas naturalnym rozszerzeniem firmowego centrum przetwarzania danych, dzięki czemu zbędne są większe zmiany w konfiguracji aplikacji. Właściwe rozwiązanie łączy w sobie bezpieczne i transparentne powiązanie z chmurą oraz funkcje optymalizacji sieci WAN. Oprócz tego szyfrowanie połączenia między firmą a dostawcą chmury zapewnia zabezpieczenie transferu danych w całym kanale komunikacji. Ponadto firmy mogą łączyć ze sobą centra przetwarzania danych w sieciach publicznych i prywatnych w celu replikowania ważnych danych niższym kosztem.

SDN czyli sieci sterowane programowo.

Z uwagi na aktualne zmiany i tendencje, takie jak konsumeryzacja, branża IT coraz częściej odchodzi od tradycyjnych desktopów. Z tego względu coraz więcej firm rozpoczęło integrowanie sprzętu z obsługą sieci sterowanych programowo (Software Defined Networks, SDN) w swojej obecnej sieci. Dzięki SDN można znacznie łatwiej zarządzać siecią, udostępniając poszczególne funkcje jako usługi wirtualne.
Istotny udział w powodzeniu zastosowania SDN mają kontrolery dostarczania aplikacji (Application Delivery Controller, ADC). Zapewniają one nadzór nad usługami wewnętrznymi oraz dostępność aplikacji i serwerów webowych. Ponadto kontrolery ADC tworzą logiczny, centralny punkt kontrolny dla dostępu do wszystkich usług oferowanych użytkownikom.

Dzisiejsze rozwiązania są przygotowane do obsługi SDN i wyposażone w interfejsy API, umożliwiając programowe sterowanie dostępem do ADC. Tym samym pozwalają na określanie wymogów aplikacji i ich spełnianie przez sieć poprzez uwolnienie odpowiednich zasobów. Wysoki poziom skalowalności oznacza w tym przypadku zdefiniowanie wymogów sieciowych w ramach profilu aplikacji z wykorzystaniem dowolnego rozwiązania sprzętowego. Przy udostępnianiu aplikacji należy ustalić wymagany tryb obsługi sieci oraz wpływ nowej aplikacji na szerokość pasma i obciążenie sieci. Tego typu wymogi mogą być optymalnie odzwierciedlone w wytycznych, a następnie rozszerzone również na środowisko chmury.


Detlev Knierim, Dyrektor Regionalny na Europę Wschodnią w firmie Citrix.

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ