Klasyczne podejście do zarządzania siecią

0


W zarządzaniu siecią wyróżniamy pięć obszarów funkcjonalnych, opisanych w standardzie ISO: zarządzanie błędami, zarządzanie kosztami, zarządzanie konfiguracją, zarządzanie wydajnością i zarządzanie bezpieczeństwem. Cofnijmy się jednak o krok i zauważmy, że typowy administrator sieci jest odpowiedzialny za wiele bardzo zróżnicowanych podsystemów.

Ma do czynienia ze scentralizowanym lub rozproszonym systemem obliczeniowym, sieciami lokalnymi i rozległymi dostępem do Internetu czy systemem wideokonferencyjnym. Administratorzy sieci biorą też udział we wdrożeniach zintegrowanych aplikacji, jak VoIP, call center czy systemy komunikacji zunifikowanej, których działanie zależy od połączenia elementów transmisji głosu i danych. Poza tym w sieci są jeszcze komputery użytkowników, z reguł z systemem Windows, ale niektóre także z MacOS i Linuksem, a do tego szereg aplikacji zainstalowanych w tym komputerach. Jakby tego było mało, ktoś jeszcze musi się zając systemami backupu, ochroną danych, zasilaniem czy zdalnym dostępem. Jeśli więc mamy rozważać pięć obszarów funkcjonalnych zarządzania, musi się to odbyć w kontekście zintegrowanego środowiska sieciowego, a nie jego pojedynczych funkcji.

Jeśli przyjrzeć się temu problemowi z perspektywy historycznej, obszar zarządzania sieciami korporacyjnymi dekadę czy dwie dekady temu był zdominowany przez dwie gałęzie: producentów komputerów klasy mainframe oraz dostawców rozwiązań telekomunikacyjnych.
Mogłeś słyszeć o takich produktach, jak IBM NetView, DEC Enterprise Management Architecture (EMA) czy AT&T Unified Network Management Architecture (UNMA), które wpasowują się w założenia scentralizowanego systemu zarządzania, który umożliwiał kontrolę nad rozproszonymi elementami, jak komputery użytkowników czy PBX’y.

Ponieważ z upływem czasu architektura sieci stawała się coraz bardziej rozproszona, systemy zarządzania siecią również musiały ewoluować. Zamiast scentralizowanego systemu, w którym wszystkie informacje o wydajności były powiązane z dużym systemem, jak serwery klasy mainframe czy PBX’y, został opracowany model rozproszony, bazujący na architekturze klient-serwer.

Lata 90-te ubiegłego wieku przyniosły nie tylko parcie w kierunku rozproszonych systemów, ale w tym czasie rozwinęły się także dwie nowe architektury zarządzania takimi rozproszonymi systemami. Po pierwsze, organizacja ITU-T kontynuowała starania zmierzające do ustanowienia standardu ISO zarządzania siecią, co zaowocowało publikacją dokumentu ITU-T X.700 definiującego standard zarządzania siecią. Opracowany został również protokół CMIP (Common Management Information Protocol), który umożliwiał komunikację między zarządzanymi zasobami a konsolą administracyjną. Został on opisany w jednej z wielu rekomendacji X.700. Zarządzanie sieciami telekomunikacyjnymi zostało zasadniczo zdefiniowane w architekturze zwanej Telecommunications Management Network, a opisanej w serii rekomendacji M.3000. Ta architektura tworzy podstawy połączenie różnych systemów i sieci oraz umożliwia zarządzanie elementami różnych producentów z poziomu jednego systemu zarządzania. Architektura ta jest najbardziej popularna wśród firm telekomunikacyjnych, prawdopodobnie ze względu na ich związek z ITU-T, oraz nacisk na badania i normy związane z telefonią.

Rok 1990 przyniósł gwałtowny rozwój Internetu, a wraz z nim rozpoczęła się zdrowa rywalizacja między niektórymi organami normalizacyjnymi (np. ISO i ITU-T), które wiele osób uważało dotychczas za powolne i zbiurokratyzowane, oraz organizacją Internet Engineering Task Force (IETF), która zawsze była w czołówce i mogła szybciej reagować na nowe innowacje.

W tym samym czasie społeczność sieciowa cierpliwie czekała, aż producenci zaimplementują w swoich produktach siedmiowarstwowy model OSI, ale po paru latach zaczynała tracić cierpliwość. Ta sytuacja dała impuls do opracowania przez IETF własnej architektury zarządzania siecią, znanej pod nazwą Internet Network Management Framework, oraz powiązanego z nią, dobrze znanego protokołu SNMP (Simple Network Management Protocol). Ten system zarządzania siecią przewidywał instalację na urządzeniach (stacje robocze, bramki, serwery) tzw. agentów, które przesyłały do centralnej lokalizacji informacje o stanie danego urządzenia oraz o nietypowych warunkach. Zebrane w jednym miejscu informacje dostarczały obraz stanu firmowej infrastruktury.

Dalsze prace doprowadziły do zdefiniowania koncepcji RMON (Remote Monitoring), opisanej w dokumencie RFC 2819t, która umożliwiła agentom w zdalnych segmentach sieci przesyłanie raportów do centralnego menedżera. Sun Microsystem Solstice Enterprise Manager czy HP OpenView to dwa produkty opracowane w tamtym okresie, który w dużym stopniu wykorzystywały technologię SNMP i RMON.

Jak można się było spodziewać, Microsoft podjął wyzwanie i stworzył własną platformę do zarządzania siecią – Systems Management Server, przemianowany później na System Center. Obecnie ten pakiet zawiera szereg komponentów, m.in. do inwentaryzacji aplikacji, aktualizacji oprogramowania, publikowania i integracja nowych aplikacji, oceny bezpieczeństwa, itd.

Jednak nie ma znaczenia, jak duże jest przedsiębiorstwo oraz jak bardzo rozbudowany jest wykorzystywany system zarządzania infrastrukturą IT. Jest mało prawdopodobne, żeby jeden system nadawał się do zarządzania całą infrastrukturą. Powód jest prosty – tradycyjne architektury zarządzania siecią koncentrują się na systemach, np. dbają o optymalne wykorzystanie pamięci masowych, procesorów, ograniczanie wykorzystania połączeń WAN czy eliminowanie problemów w działaniu sieci. Pozostałe kluczowe obszary są domeną użytkowników końcowych i ich aplikacji, które obejmują szerokie spectrum od aplikacji bazodanowych po systemy wideokonferencyjne. Innymi słowy, zarządzanie wydajnością jest kluczowym czynnikiem, ponieważ ma bezpośredni wpływa na produktywność użytkowników końcowych.

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ