Optymalizacja sieci Ethernet w serwerowni

0

Ethernet to od lat najpopularniejsza technologia sieci LAN w serwerowniach. Jednak coraz większa presja na ograniczanie kosztów, konsolidację zasobów IT oraz obsługę nowych modeli aplikacji, np. SOA, tworzą kombinację, która stawia zupełnie nowe wymagania sieci w serwerowni. Raczej nie ma wątpliwości, że Ethernet spełni te wymagania, ale wdrożenie nowych technologii Ethernet będzie wyzwaniem przez najbliższych kilka lat.

Dużo wskazuje na to, że najbliższe trzy lata będą okresem intensywnych prac nad wymianą technologii ethernetowych w serwerownich. Gdy rozpocznie się ten proces transformacji, działy IT odpowiedzialne za serwerownie i sieć będą zmuszone opanować sposoby bieżącej optymalizacji sieci Ethernet. Będzie to oznaczało zmagania z opóźnieniami i utratą pakietów poprzez stosowanie różnych strategii, jak wybór nowych przełączników czy izolowanie komunikacji z systemami pamięci masowych.

Wysokie wymagania
Sieci w centrach danych rozpoczynały swój rozwój od pojedynczej roli zapewniania łączności pomiędzy serwerami a użytkownikami. Obecnie ma ona trzy różne zadania do spełnienia, z których każde dotyczy innego rodzaju ruchu sieciowego z własnymi wymaganiami QoS:

  • Tradycyjna komunikacja klient-serwer, która jest stosunkowo niewrażliwa zarówno na opóźnienia, jak i utratę pakietów.
  • Komunikacja horyzontalna pomiędzy aplikacjami, generowana w większości poprzez tendencję do tworzenia modułów aplikacji i architektury SOA. Ten ruch wymaga małych opóźnień, ale toleruje pewien poziom utraty pakietów.
  • Komunikacja z systemami pamięci masowych, wynikająca z migracji z tradycyjnych protokołów transmisji danych do protokołów bazujących na Ethernecie i IP (iSCSI i FCoE). Ten rodzaj komunikacji jest wrażliwy na opóźnienia, a jeszcze bardziej na utratę pakietów.

Wyzwaniem dla administratorów sieci jest to, że te trzy rodzaje ruchu mają różne wymagania QoS, ale jeszcze większym wyzwaniem jest to, że są one ze sobą mocno powiązane. Transakcje generowane podczas komunikacji klient-serwer aktywują procesy, które są ze sobą połączone horyzontalnie, a poza tym te procesy często wymagają również dostępu do pamięci masowych. W efekcie wydajność aplikacji zależy od płynnego przesyłania trzech różnych rodzajów ruchu.

Rozwiązanie problemów z QoS – izolacja komunikacji z pamięciami masowymi
Jeśli zależności pomiędzy różnymi rodzajami ruchu są problemem, wtedy oczywistym rozwiązaniem staje się puszczenie ruchu poprzez niezależne sieci LAN. Może wydawać się, że spowoduje to utratę korzyści związanych ze skalą sieci Ethernet w serwerowni, ale dla części użytkowników będzie to praktyczne rozwiązanie, przynajmniej podczas migracji do sieci Ethernet. W dużych serwerowniach można osiągnąć korzyści ze skali, nawet jeśli sieci LAN zostaną fizycznie odseparowane. Ponieważ komunikacja z pamięciami masowymi jest najbardziej wrażliwa na wydajność sieci, takie podejście może znacząco zredukować trudności związane z zarządzaniem QoS dla wszystkich trzech rodzajów ruchu sieciowego.

Trzeba zauważyć, że wykorzystanie VLAN’ów nie zapewni izolacji ruchu, ponieważ dane będą przesyłane wspólnymi łączami (trunkami VLAN), a pakiety będą trafiały do tej samej kolejki przełącznika (jedynie niewielka część przełączników tworzy oddzielne kolejki dla poszczególnych VLAN’ów). Obecnie organizacje IEEE i IETF pracują nad kilkoma standardami, które mają umożliwić większą kontrolę nad różnymi klasami ruchu w sieciach Ethernet. Standardy te obejmują Data Center Bridging (DCB), Priority Flow Control (PFC), Lossless Service oraz Enhanced Transmission Selection (ETS). Osoby zajmującej się planowaniem sieci powinny zrobić rozeznanie, którzy producenci już zaimplementowali te standardy w swoich produktach.

Sposoby ograniczenia opóźnień i liczby utraconych pakietów
Nawet bez korzystania z rozszerzeń standardu można podjąć działania, które skrócą średni czas opóźnień i ograniczą odsetek utraconych pakietów. Do działań tych zaliczają się:

  • Stosowanie największej szybkości łączy Ethernet, których użycie jest ekonomicznie uzasadnione. Opóźnienia zawsze da się zredukować poprzez zwiększenie przepustowości łączy. Niewielkie obciążenie łączy skutkuje szybszą komunikacją, a ponadto zmniejsza ryzyko utraty pakietu. W miejscach, gdzie zwiększenie przepustowości łączy Ethernet jest niepraktyczne, warto przynajmniej puścić komunikację z pamięciami masowymi po najszybszym możliwym połączeniu.
  • Wykorzystanie dużych przełączników, zamiast kilku warstw przełączników o mniejszej wydajności. Ten proces, często nazywany spłaszczaniem sieci, zredukuje liczbę przełączników, które pośredniczą w komunikacji pomiędzy punktem źródłowym i docelowym. To z kolei zmniejszy opóźnienia i ryzyko utraty pakietów. Ponadto zredukuje zmienność opóźnień (tzw. jitter), dzięki czemu wydajność aplikacji stanie się bardziej przewidywalna.
  • Wykorzystanie przełączników z technologią cut-through, która przyspiesza proces przełączania pakietów. Tradycyjne przełączniki odbierają całą ramkę, zanim zaczynają jej nadawanie. W przypadku przełączników cut-trough nadawanie rozpoczyna się od razu po odebraniu nagłówka ramki. To redukuje opóźnienia.
  • Staranny dobór kart sieciowych wykorzystywanych w serwerach i macierzach dyskowych. Niektóre z nich mają wbudowane mechanizmy TOE (TCP Offload Engine) przejmujący zadania związane z przetwarzaniem stosu protokołów TCP/IP. To poprawia wydajność.
  • Trasowanie najistotniejszego ruchu poprzez najmniejszą możliwą liczbę przełączników. To oznacza, że serwery i macierze dyskowe, które są wykorzystywane razem, powinny być podłączone do tego samego przełącznika, ewentualnie w transmisji pomiędzy nimi mogą pośredniczyć dwa przełączniki. Taka komunikacja nie powinna odbywać się za pośrednictwem całej hierarchii przełączników.
  • Skonfigurowanie parametrów portów przełączników obsługujących macierze dyskowe w taki sposób, żeby ograniczyć liczbę utraconych pakietów, nawet kosztem większych opóźnień. Utrata pakietów jest poważnym problemem w przypadku przesyłania komunikacji z macierzami dyskowymi przez protokół Ethernet.

Separacja ruchu ze względu na reguły QoS
Ruch generowany przez użytkowników można w całości odseparować od komunikacji horyzontalnej i komunikacji z macierzami dyskowymi. Jeśli firma planuje integrację tych rodzajów ruchu, jedna sieć będzie przenosiła zarówno ruch niewrażliwy na opóźnienia i utratę pakietów, jak również ruch wrażliwy na tego rodzaj zakłócenia. To oznacza konieczność stworzenia przewymiarowanej sieci lub poczekania na standardy, które umożliwią różne traktowanie poszczególnych typów komunikacji.

Ważne, żeby przynajmniej ruch wewnętrznych aplikacji, jak macierze dyskowe i sieci SOA, nie mieszał się z ruchem generowanym przez użytkowników. Przy okazji pozwoli to lepiej zabezpieczyć dane przechowywane w serwerowni. Należy się także upewnić, że takie protokoły, jak Spanning Tree wykorzystywane w dostępowej sieci LAN swoim działaniem nie obejmą sieci w serwerowni, gdzie mogłyby zakłócać ruch zarządzający i wpływać na mechanizmy przywracania sieci po awarii.

Zarówno produkty jak i standardy dla sieci w serwerowniach szybko się rozwijają, co jest wymuszane przez takie aplikacje, jak wirtualizacja czy cloud computing. Osoby zajmujące się planowaniem sieci powinny przyjrzeć się kierunkom rozwoju producentów przełączników i zaplanować krótkoterminowe zmiany, mając jednak na uwadze przyszłe architektury sieci.

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ