Przetwarzanie w chmurze i nowe reguły ekonomiczne rządzące sieciami

0

Przetwarzanie w chmurze (cloud computing) wraz ze wszystkimi umożliwiającymi je rozwiązaniami technicznymi z zakresu obliczeniowego, pamięci i oprogramowania już obciąża do granic możliwości istniejące sieci, mimo że to dopiero początek transformacji. Sposób, w jaki obecnie firmy zaplanują migrację sieci, zdecyduje o tym, jak przez wiele lat będzie się kształtowała ich struktura kosztów, wydajność i skalowalność.

Centra „przetwarzania danych w chmurze” to w zasadzie „fabryki” tworzące i dostarczające usługi klientom, partnerom i pracownikom. O tym, co mogą robić, decydują rozwiązania techniczne, ale to, co muszą robić, wymusza ekonomia i sytuacja rynkowa – czyli muszą, na przykład, poprawiać jakość usług mimo kurczących się budżetów, czy też radzić sobie z lawinowo przyrastającą ilością danych bez kompromisów ze strony jakości usług.

Takie nowe środowiska produkcyjne muszą spełniać nowe wymagania. Nowe techniki umożliwiają wirtualizację przetwarzania i pamięci, centralizację infrastruktury oraz radykalną i natychmiastową rozbudowę działalności. Jednocześnie przedsiębiorstwa i konsumenci domagają się więcej treści – bogatszych i szybciej dostarczanych do dowolnego urządzenia znajdującego się w dowolnym miejscu. Cloud computing może spełniać te nowe wymagania i zapewniać szersze możliwości. Jednak tylko wtedy, jeśli w centrach przetwarzania danych zostaną pokonane problemy nierozerwalnie związane z budową dotychczasowych sieci obsługujących takie ośrodki.

Złożoność sieci: co się stało i dlaczego to jest ważne
Z rzadkimi wyjątkami, współczesne sieci w centrach przetwarzania danych stały się zbyt skomplikowane i kosztowne, by umożliwiać realizację przetwarzania w chmurze. Większość kierowników ośrodków przyzna, że u nich też pojawiają się poniższe tendencje:

  • Nowe architektury aplikacji — stary model aplikacji „klient serwer z rozpoznawaniem stanów” ograniczał ruch aplikacji do połączeń „północ-południe” między serwerami i klientami, ale nie pozwalał na skalowanie rozwiązania do poziomu dziesiątek tysięcy użytkowników, o milionach nawet nie mówiąc. Współczesne architektury usługowe i zastosowania Web 2.0 rozprowadzają ruch do wielu specjalizowanych serwerów, stwarzając nowe wymagania w stosunku do sieci.
  • Nowe treści — ponieważ współcześnie wszystko, od szkoleń do rozmów telefonicznych, występuje w formie elektronicznej, zachodzi potrzeba przemieszczania i magazynowania lawinowo wzrastającej ilości coraz bogatszych danych. A każda poprawa wydajności owocuje kolejnym wzrostem popytu.
  • Nowe klienty — eksplozja popularności klientów bezprzewodowych i mobilnych oraz całej infrastruktury serwerowej i pamięciowej niezbędnej do ich obsługiwania gwarantuje, że ruch w sieci będzie większy, a połączenia sieciowe bardziej skomplikowane. Próby wyprzedzania tych trendów są jedynie chwilowym odciążeniem, mogącym nawet prowadzić do dalszego skomplikowania sieci. Na przykład: więcej urządzeń sieciowych. Dodawanie ich jako szybkiego sposobu na pokonanie ograniczeń przepustowości prowadzi tylko do wzrostu komplikacji, ponieważ nowe połączenia i obciążenia wprowadzają większe opóźnienia i podnoszą koszty.
  • Sieci specjalizowane pod kątem jednego zastosowania — problemy w centrach przetwarzania danych często obchodzi się, budując w nich dodatkowe sieci specjalizowane. Ethernetem płyną dane, Fibre Channel łączy macierze dyskowe z serwerami, zaś sieci, takie jak InfiniBand, przenoszą komunikację między serwerami. Ale takie pofragmentowanie sieci ogromnie komplikuje próby jej wirtualizacji, a także bieżące zarządzanie.
  • Koncentracja zasobów i zarządzania — konsolidowanie infrastruktury i jej eksploatacji we własnych, zleconych na zewnątrz lub współdzielonych centrach przetwarzania danych poprawia stopień wykorzystania, sprawności i kontroli, ale stwarza konieczność poświęcenia większej uwagi sprawom wydajności, dostępności i bezpieczeństwa infrastruktury sieciowej.
  • Wirtualizacja — będąca zasadniczo innym sposobem koncentrowania zasobów, wirtualizacja umożliwia budowanie zasobów pamięci, serwerów i partycji sieci z użyciem mniejszej liczby urządzeń fizycznych. W takim podejściu wiele aplikacji czy grup użytkowników może używać tej samej infrastruktury fizycznej, co prowadzi do jej lepszego wykorzystania i elastyczności dzięki możliwości rozkładania obciążeń roboczych na pule zasobów. Ale uruchamianie i migracja wirtualnych obciążeń roboczych stwarza ogromne wymagania co do wydajności i elastyczność sieci.

Nie są to problemy dotyczące wyłącznie centrów przetwarzania danych, ale z zasady objawiają się w najbardziej wyśrubowanych otoczeniach. A dotyczą także firm, które nie planują oferowania usług przetwarzania w chmurze, jednak wykorzystują ich technologie składowe.

Ekonomia uproszczenia sieci
Współcześnie przeciążone zasoby komutacyjne i powszechna agregacja oraz warstwy szkieletowe sieci to problemy odziedziczone. Większość sieci pierwotnie projektowano do obsługi ograniczonych przepustowości i z uwzględnieniem gęstości upakowania portów w starszych generacjach routerów i przełączników, zaś natężenie ruchu przewidywano dla aplikacji w architekturze klient-serwer.

Nie trzeba już projektować sieci w tak ułomny sposób. W sytuacji idealnej moglibyśmy zaprojektować scentralizowaną sieć podzieloną wirtualnie na partycje jako jeden „logiczny” przełącznik, który jest rozproszony fizycznie (ze względów niezawodnościowych), zapewniający wysokie parametry, małe opóźnienia i możliwość łączenia wszystkiego ze wszystkim w centrum przetwarzania danych dla każdego rodzaju ruchu.

Niewiele ze współczesnych sieci w centrach przetwarzania danych nawet zbliża się do tego ideału, ale większość z nich może skorzystać na nowym podejściu, którego nadrzędną zasadą jest upraszczanie. Nowe techniki umożliwiają projektantom zmniejszanie złożoności sieci i kosztów jej posiadania poprzez ograniczenie liczby warstw komutacji, liczby łączy, konsolidację infrastruktury zabezpieczającej i przyjęcie jako standard jednego systemu operacyjnego pozwalającego na automatyzację działania sieci w infrastrukturze komutacyjnej, routingowej i usług sieciowych.

Takie uproszczenie pozwala już dziś przygotować się na wysoką wydajność, szybkie zmiany i rozbudowę, niezależnie od tego, czy firma zamierza w pełni wdrożyć wysoce zwirtualizowane, intensywnie wykorzystujące sieć usługi „przetwarzania w chmurze”.

Bardzo interesujący jest aspekt zmniejszenia kosztów eksploatacji. Można je zmniejszyć już samym tylko ograniczeniem liczby przełączników. Jeśli racjonalizacja dotyczy całej warstwy sieciowej, oszczędności pojawiają się wszędzie:

  • Ekonomiczny projekt powoduje, że infrastruktura sieciowa jest skonsolidowana w mniejszej liczbie urządzeń, co oszczędza miejsce, koszty zasilania i chłodzenia, a także zmniejsza koszty ogólne zarządzania.
  • „Spłaszczone” sieci pozwalają na centralizację i wirtualizację urządzeń zabezpieczających i zastąpienie licznych oddzielnych urządzeń realizujących SSL, VPN, NAT i inne zabezpieczenia. Konsolidacja urządzeń zabezpieczających ogranicza koszty i ułatwia zarządzanie sieciami, przez co stają się one sprawniejsze i bezpieczniejsze.
  • Ekonomiczniejsze zarządzanie pomnaża oszczędności. Zmniejszenie liczby i zróżnicowania urządzeń upraszcza zarządzanie nimi. Znormalizowanie interfejsów zwiększa wydajność pracy wysokokwalifikowanego personelu i pozwala na stosowanie zautomatyzowanych narzędzi do zarządzania siecią i jej rutynowej konserwacji.

Wydajność uproszczonych sieci
Oprócz niższych kosztów budowy i zarządzania, bardziej płaskie sieci działają sprawniej. Przejście pakietu danych przez każdy kolejny przełącznik czy urządzenie zwiększa opóźnienie w torze transmisji danych, tak że eliminacja warstw komutacji zmniejsza opóźnienie całościowe. W bardziej płaskich sieciach sprawniej też działają współczesne aplikacje: na przykład te oparte na architekturze usługowej (ang. Service Oriented Architecture – SOA) korzystają na tym, że sieci centrów przetwarzania danych są w stanie na bieżąco obsługiwać cały ruch między serwerami.

Wysokowydajne sieci o niskich opóźnieniach są szczególnie istotne dla firm planujących zwiększenie swego zaangażowania w wirtualizację. Aby ją wprowadzić na dużą skalę, niezbędne jest zaplanowanie migracji sieci; powinno być dokonane jak najwcześniej.

Lepsze usługi i wyniki gospodarcze
Opisywane powyżej ograniczenia kosztów i zwiększenie wydajności będą obiektem bezpośredniego zainteresowania firm zamierzających w pełni wykorzystać możliwości stwarzane przez nowe techniki obliczeniowe, w dziedzinie pamięci masowych i oprogramowania. Jednak korzyści płynące z szybszych, prostszych, elastyczniejszych i tańszych rozwiązań podstawowych będą odczuwalne w całych centrach przetwarzania danych i firmach przez nie obsługiwanych – w postaci długofalowych usprawnień operacyjnych.

Pojedyncza wysoce skalowalna sieć w centrum przetwarzania danych ułatwia grupowanie zasobów serwerowych i pamięci celem skuteczniejszego rozkładania obciążeń i lepszego wykorzystania zasobów. Upraszcza też uruchamianie usług, skracając czas niezbędny do wprowadzania nowych, czy cyklicznego ustawicznego ulepszania usług już oferowanych. A interesujący jest wynik ostateczny – im wyższej jakości usługi można świadczyć w krótszym czasie, tym niższe będą koszty.

Niezależnie od tego, czy organizacja planuje przejście na przetwarzanie w chmurze szerokim frontem, czy też tylko stopniowe wykorzystywanie korzyści płynących z wirtualizacji, pamięci sieciowych i nowych modeli udostępniania aplikacji, powinna dobrze się przyjrzeć wymaganiom na swoje sieci. Spłaszczona i prostsza konstrukcja sieci szybko się zwróci i pozwoli firmie szybciej dostosowywać się do wyzwań, które pojawią się w przyszłości.

Autorem jest Andy Ingram, wiceprezes do spraw marketingu produktów i rozwoju działalności w dziale Center Business Group w Juniper Networks

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ