Juniper – Na celowniku Netfocus

0

Juniper jest jednym z najszybciej rozwijających się producentów rozwiązań sieciowych. Pod koniec października 2009 firma wprowadziła nową generację procesorów internetowych Trio oraz zapowiedziała szereg produktów sieciowych, m.in. routerów, które dzięki nowemu procesorowi będą charakteryzowały się znacznie większymi możliwościami. Czy rzeczywiście nowa oferta Junipera trafia w oczekiwania integratorów i operatorów? W jakim kierunku idzie rozwój sieci? Szef polskiego oddziału Junipera znalazł się na celowniku Vectry, Crowleya, Wasko i Netfocus.

Pretekstem do zorganizowania spotkania „Juniper na celowniku” była październikowa premiera procesora Trio. Nowy układ zapewnia, m.in. sprzętową obsługę routingu oraz kolejkowania i pozwala podnieść przepustowość obecnie istniejących routerów nawet do 2,6 Tbit/s. Co istotne, procesor umożliwia skalowanie w trzech wymiarach – przepustowości, liczby obsługiwanych aplikacji i liczby jednocześnie obsługiwanych użytkowników. Juniper podkreśla także, że routery wyposażone w chipset Trio są dużo wydajniejsze pod kątem zużycia energii. Nowy układ Trio znajdzie zastosowanie zarówno w nowych urządzeniach jak i kartach rozszerzeń do istniejących rozwiązań, w szczególności routerów serii MX.

Postanowiliśmy przekonać się, co o nowej ofercie Junipera sądzą, z jednej strony – potencjalni użytkownicy – polscy operatorzy, a z drugiej – przedstawiciele kanału partnerskiego – integratorzy.

Uczestnicy spotkania:

Wojciech Głażewski, Country Manager, Juniper Networks

Andrzej Kubacki
Starszy Menedżer, ds. Kluczowych Klientów, Wasko

Przemysław Mujta, Dyrektor Operacji Sieciowych, Crowley

Marcin Zwierzchowski, Szef Działu Usług Internetowych, Vectra

oraz:
Krzysztof Jakubik, redaktor, Netfocus
Rafał Janus, redaktor naczelny, Netfocus



Netfocus: Jaki jest pomysł Junipera na budowę sieci?

Wojciech Głażewski, Juniper: Ideą, która od dawna nam przyświecała, było uproszczenie struktury sieciowej. W przeszłości obserwowaliśmy tendencję do budowania rozwiązań składających się z wielu warstw. Struktura stawała się przez to bardzo skomplikowana, a operacyjnie była daleka od ideału. Żeby to zmienić, forsowaliśmy ideę budowy Collapsed Backbone, polegającą na implementacji funkcji szkieletowych oraz dostępowych na tych samych urządzeniach. Dzięki takiemu rozwiązaniu urządzenia te można stosować w dowolnych miejscach sieci, czasami radykalnie zmieniając ich rolę.

Stawiamy również na różnorodność naszych rozwiązań. Obecnie pod pojęciem „operator” rozumiemy tak dużą ilość różnych instytucji i usług, że musimy być elastyczni.


Netfocus:
Czy z punktu widzenia operatora i integratora to dobra koncepcja?

Przemysław Mujta, Crowley:
Tak. Mamy bardzo szerokie portfolio usług telekomunikacyjnych, np. ISDN, SDHC, ATM, Ethernet IP. Żeby to wszystko działało, potrzebujemy jednej sieci, którą można dopasować do różnych sytuacji. Taka tendencja przeważa zresztą wśród operatorów. Jeśli ktoś oferuje jedną usługę, a potem inną – dla kolejnego odbiorcy – to wygodniej zastosować to samo urządzenie, bo to upraszcza proces zarządzania i implementacji. Można wymienić karty, ale nie trzeba kupować dedykowanych urządzeń.

Marcin Zwierzchowski, Vectra: Dla mnie szczególnie istotna jest elastyczność i skalowalność rozwiązania. Planując pojemność i przepływność sieci, trzeba myśleć perspektywicznie. Budowę sieci szkieletowej Vectra rozpoczynaliśmy w oparciu o łącze gigabitowe. Kiedy zakończyliśmy projekt, okazało się, że już możemy rozpoczynać kolejną jego fazę, tj. upgrade z 1 Gb/s do 2,5 Gb/s (STM-64). Po roku pracy okazało się, że nasze potrzeby znowu dramatycznie wzrosły i od wiosny 2009 główny szkielet pracuje już na bazie łączy 10 GE. W naszym przypadku dosyć dużym pożeraczem pasma jest transmisja telewizji cyfrowej, natomiast jeśli chodzi o Internet , w trakcie końcowych testów są już usługi o przepływności 100 Mbps do końcowego klienta telewizji kablowej. To pokazuje, jakie są oczekiwania abonentów, natomiast operatorzy za tymi oczekiwaniami muszą nadążyć i dopasować do nich własną infrastrukturę.

Andrzej Kubacki, Wasko: Nas, jako integratora, cieszy innowacyjność produktów Junipera. Klienci poszukują rozwiązań, które są dobre nie tylko dziś, lecz także przydadzą się w przyszłości. Pozwala to operatorom rozwijać sieci bez ponoszenia dużych kosztów. Portfolio Junipera poszerza się, jest coraz bardziej kompletne i spójne dzięki systemowi operacyjnemu Junos. Pod kontrolą tego samego systemu działa cała dziedzina rozwiązań związaną z zabezpieczaniem sieci, bo Juniper to nie tylko routery i switche. Kolejna ważna sprawa – serwis. Jego dostępność jest coraz większa, a z drugiej strony rośnie niezawodność sprzętu. Od niedawna switche dostępowe Junipera są objęte, tzw. dożywotnią gwarancją, co jest oczywiście korzystne dla użytkownika i operatora. Podoba mi się również podejście do marketingu. W materiałach Junipera pojawiają się nie tylko parametry sprzętu, lecz także informacje, jak ekonomicznie go używać. Z mojego punktu widzenia to bardzo ważne, bo klienci zwracają uwagę na koszty. Podsumowując: bardzo chwalę sobie tę współpracę. Jest ona coraz lepsza, tak jak Juniper jest firmą coraz lepszą i coraz większą.

Wojciech Głażewski, Juniper: Raczej coraz lepszą, bo coraz większą. Kiedyś Juniper był firmą niszową, ale konsekwentne poszerzanie portfolio naszych rozwiązań było bardzo dobrym posunięciem. Faktycznie, staramy się konstruować takie rozwiązania, które nie będą wymagały ich wymiany w miarę rosnących potrzeb naszych klientów – tym samym dbamy o efektywność ich inwestycji. Seria MX od początku posiadała nadmiarową architekturę, w związku z tym teraz możliwe jest wprowadzenie większej przepustowości i wykorzystanie zalet tej platformy. Ostatnio dużo się dyskutowało o zasadności wprowadzenia interfejsów 40 Gb/s. Moim zdaniem, przy równoczesnej standaryzacji Ethernet 40 Gb/s oraz 100 Gb/s na ten pierwszy może nie być dużego zapotrzebowania. Już teraz wielu operatorów ma większy ruch międzywęzłowy niż 40 Gb/s i doskonale sobie z tą sytuacją radzi.

Zresztą dużo pomysłów, czysto technicznych, jest weryfikowanych przez rynek. Przykładem może być IP over DWDM. Takie rozwiązanie było odpowiedzią, wydawałoby się, na oczekiwania dużych operatorów. Jednak od czasu wprowadzenia na rynek jest implementowane bardzo rzadko. Okazało się, że zysk z wprowadzenia IP over DWDM często nie równoważy kłopotów operacyjnych które przy okazji mogą się pojawić.

Marcin Zwierzchowski, Vectra: IP over DVDM to nic odkrywczego. To zintegrowanie dwóch urządzeń w jednym. Nie chcę tego rozwiązania spisywać na straty, ale ze swojej branży mogę podać przykłady wielu nietrafionych produktów. Zwłaszcza w branży teletransmisyjnej ostatnich lat ze względu na dramatyczny wzrost przepływności w sieciach. Dotyczy to zarówno urządzeń szkieletowych, jak i końcowych. Weźmy, np. modemy kablowe pracujące w standardzie DOCSIS 3.0. Za ich pomocą można świadczyć usługi o przepływności do 200 Mbps. Aby takie przepływności uzyskać, kontrolery kablowe agregują 4 kanały po 50 Mbps każdy. Nie zdążyliśmy jeszcze odpowiednio przetestować tych modemów, a już je wycofano z produkcji. Obecnie sprzedawane modemy są przygotowane do agregacji 8 kanałów. Zwiększanie przepływności do sieci Internet dla końcowych abonentów postępuje tak szybko, że już dziś trzeba być przygotowanym na świadczenie usług do 400 Mbps. Podobna sytuacja ma miejsce w szkielecie sieci. Moim zdaniem standard 40 Gbps to strata czasu. Powinniśmy zdecydowanie myśleć o rozwiązaniach 100 Gbps.

Przemysław Mujta, Crowley: Czy z Waszego punktu widzenia nie byłoby taniej wymienić infrastrukturę na ethernetową? Wtedy zaoferowanie usługi 100 czy 200 Mb/s nie stanowiłoby problemu..


Marcin Zwierzchowski, Vectra:
DOCSiS to tylko medium końcowe. Niezależnie od technologii, jeśli chodzi o infrastrukturę teletechniczną, zazwyczaj do końcowego budynku doprowadzamy włókno optyczne. Czy dalej wykorzystamy standard DOCSIS i modem kablowy czy dodatkowy kabel do abonenta i kartę Ethernet, to wtórna sprawa. Jako branża telewizji kablowej, stosujemy technologię, na której się po prostu lepiej znamy. Sieci pracujące w oparciu o standard DOCSIS budujemy od ponad 10 lat. Oczywiście śledzimy rozwój technologii Ethernet do ostatniego abonenta, natomiast pamiętamy, że nasz klient ma w domu kabel i zazwyczaj nie życzy sobie dodatkowego kabla Ethernet, wiercenia itp. Jako operatorzy kablowi używamy również technologii DOCSIS dla realizacji kanału zwrotnego w przypadku usług telewizji cyfrowej, nasze set-top box’y mają wbudowane modemy pracujące w standardzie DOCSIS.

W roku 2000 technologia DOCSIS 1.0, 1.1 była wyjątkowo udaną i efektywną. Kilka lat temu przeżywała kryzys, a technologie xDSL rozwijały się bardzo dynamicznie. W moim odczuciu, tracono czas na rozwój standardu 2.0. Wszystko się zmieniło po wdrożeniu standardu DOCSIS 3.0. Znowu można powiedzieć, że technologia jest gotowa na bezpieczne świadczenie usług przez dobre kilka lat.

Netfocus: Przepustowości rosną więc coraz szybciej. Czy tak będzie zawsze, czy może jest jakaś granica?

Wojciech Głażewski, Juniper:
Myślę, że sytuację dobrze obrazuje model nazywany spiralą napędową rynku. Wszystko jest ze sobą powiązane. Wyobraźmy sobie, iż mamy operatora i jego określone, na dzień dzisiejszy, możliwości techniczne. Pojawiają się nowe aplikacje, które pozwalają mu obsłużyć coraz większą liczbę użytkowników. Jeśli ich przybywa, zwiększają się wymagania techniczne sieci. Sieć się rozbudowuje, co wymusza dalszy rozwój aplikacji. Z tym z kolei łączy się wzrost liczby użytkowników itd. Spirala cały czas jest w ruchu.

W jakim miejscu jesteśmy teraz? Chyba na etapie poszukiwania aplikacji, które będą mogły wykorzystać możliwości techniczne dostępnej obecnie infrastruktury. Technologicznie jesteśmy w stanie dostarczyć klientowi znacznie więcej niż jest on w stanie skonsumować. Czy tak będzie zawsze? Mam nadzieję że nie, że dalej będziemy uczestniczyć we wspomnianej spirali rozwoju. W telewizji następnej generacji strumień nieskompresowanego sygnału wideo będzie w stanie skutecznie wypełnić pasmo, którym obecnie dysponujemy. To są poważne wymagania. Planując rozwój sieci szkieletowej, musimy uwzględnić taki czynnik. Zupełnie inaczej wygląda ta kwestia z punktu widzenia klienta końcowego – nawet jeśli ma on telewizję cyfrową, kanał zajmuje zaledwie kilka megabitów.

Marcin Zwierzchowski, Vectra: Jednak i tutaj przepływność się zwiększa. Pół roku temu do przesyłania kanału SD wystarczyły 2-3 Mbps. W tej chwili obserwujemy dynamiczny rozwój kanałów HD, które potrzebują od 10 do 20 Mbps. Operatorzy, którzy chcą wykorzystać nowoczesny dekoder trzy głowicowy, który pozwala na jednoczesne nagrywanie dwóch kanałów oraz oglądanie trzeciego, muszą przeznaczyć na realizację IPTV do 60 Mbps przepływności. Transmisja wideo w moim odczuciu będzie zajmowała coraz więcej miejsca.

Andrzej Kubacki, Wasko: Analitycy szacują, że zapotrzebowanie na przesyłanie informacji rośnie dwukrotnie w ciągu dwóch lat. Być może teraz do dyspozycji końcowego użytkownika jest za dużo przepływności, ale doświadczenie pokazuje, że te potrzeby szybko się zwiększają. Kilka lat temu nikt sobie nie wyobrażał, że przydadzą się tak wielkie przepustowości jak te, potrzebne w chwili obecnej.

Netfocus: Jak wygląda wydajność rozwiązań Junipera na tle konkurencji?

Wojciech Głażewski, Juniper: Unikam takich porównań. Trzeba raczej patrzeć, jakie są różnice między firmami. Każda z nich ma swoją specyfikę i swoją różnorodność. Myślę, że taka ocena jest dla klienta ciekawsza, niż zestawienie liczb. Zresztą, jaki moment mamy wybrać do takich porównań? Na rynku wciąż pojawiają się nowe rozwiązania, więc oferowane wydajności ciągle się zmieniają.

Przemysław Mujta, Crowley: Wydajność to za mało, żeby ocenić wartość urządzenia. Ważne jest, czy sprzęt sprawdza się w działaniu. Są wprawdzie testy porównawcze, ale one też nie mówią wszystkiego. Zwykle jest tak, że producent, który zleca testy, wypada doskonale na tle konkurencji. Badania są robione w laboratoriach i wtedy rzeczywiście wszystko działa idealnie. Jednak po podłączeniu do sieci pojawiają się problemy. W laboratorium niektórych czynników nie da się uwzględnić, więc najlepiej sprawdzić urządzenie w sieci produkcyjnej.

Andrzej Kubacki, Wasko: Nie można ograniczać oceny rozwiązań do wydajności, bo producenci konkurują ze sobą na wielu polach. Liczy się też dostępność usług, funkcjonalność urządzeń, serwis.

Marcin Zwierzchowski, Vectra: Jest wiele istotnych czynników wpływających na końcową wartość urządzenia. Moim zdaniem, przede wszystkim jest to skalowalność i stabilność rozwiązania w długim okresie. Co do wydajności, ważna jest oczywiście sama konstrukcja urządzenia. Powinno ono pozwalać na instalację kart, które mocno wybiegają w przyszłość, nawet jeśli dziś ich nie potrzebujemy. Ważne też, żeby producent rozwijał kolejne generacje kart i procesorów pozwalających na przedłużenie życia urządzenia. Niektórzy uważają, że można wyliczyć wartość urządzenia, licząc liczbę portów i maksymalne przepływności. To też moim zdaniem nieporozumienie.

Niedawno UKE zwróciło się do mnie z pytaniem, ile kosztuje port gigabitowy w urządzeniu brzegowym. Generalnie sprawa dotyczyła kwestii wymiany ruchu IP i UKE próbowało wyliczyć, ile TPSA kosztuje realizacja połączeń peeringowych. Do dziś TP S.A. jest jedynym polskim operatorem, który nie udostępnia bezpłatnego peeringu. W związku z powyższym zostałem poproszony przez UKE o analizę kosztów rozwiązania pozwalającego na realizację peeringu. Tylko, że o końcowej wartości urządzenia decydują typy zainstalowanych kart. Zupełnie inaczej przedstawia się koszt, jeśli policzymy starszego typu kartę 1×10 GE i najnowsze konstrukcje 4×10 GE.

Co do pytania dotyczącego porównania wydajności urządzeń Junipera i konkurencji, mogę powiedzieć tylko tyle, że kupując pierwsze maszyny MX240, nie sądziłem, że kiedykolwiek wykorzystam do końca ich wydajność… Co prawda jeszcze się to nie wydarzyło, ale kolejny zakup to były już MX 480. Wpływ na wydajność końcową platformy MX mają karty liniowe. Pojawienie się kart combo, tj. 2×10 GE i 20×1 GE było w moim przekonaniu rzeczywistym odskoczeniem od konkurencji.


Netfocus:
Czy dla klientów i operatorów ważna jest energooszczędność?

Marcin Zwierzchowski, Vectra: Tak, ale nie ze względu na konsumpcję mocy i koszty z nią związane. Wiadomo, że każde urządzenie zamienia energię na ciepło. Żeby je schłodzić, potrzeba dwa razy więcej energii na klimatyzację. Na dodatek, takie instalacje zajmują sporo miejsca. Załóżmy, że jedna szafa pobiera 10 kW mocy. Jeśli szaf jest 10, to daje razem 100 kW. Żeby je schłodzić, potrzebujemy 200 kW. Dla operatorów nie są więc ważne tylko koszty zużycia energii przez urządzenie. Liczą się przede wszystkim koszty zapewnienia bezpiecznego zasilania, chłodzenia oraz fizyczne miejsce w serwerowni. Obecnie duża część budżetu na infrastrukturę IT jest przeznaczana na rozbudowę UPS’ów i klimatyzacji. Jest to znacznie większy koszt niż koszty zużywanej energii elektrycznej. Myślę jednak, że już zdecydowanie warto, abyśmy bardziej kompleksowo analizowali koszty pod kątem energooszczędności urządzeń.

Wojciech Głażewski, Juniper: Często koszt zużycia energii przez urządzenia jest zauważalny dopiero wtedy, gdy wymusza rozbudowę istniejącej siłowni lub wybudowanie nowej. Wiadomo, że karta o wydajności 10 Gbps zużywa więcej energii, niż ta o wydajności 1 Gbps, ale staramy się, aby jej efektywność energetyczna była o wiele wyższa (np. w przeliczeniu na 1 Gb/s). Jest to jeden z priorytetów w procesie konstruowania nowych rozwiązań w firmie Juniper Networks.

Netfocus: Czy za energię płacicie Państwo w systemie wewnętrznych rozliczeń?

Marcin Zwierzchowski, Vectra: W naszej firmie kosztami energii elektrycznej zajmuje się dział eksploatacji. Jako dział teletransmisji, nie jesteśmy rozliczani ze zużycie energii elektrycznej. Wiemy, że koszty energii w skali firmy są niebagatelne i jako firma szukamy oszczędności, np. wszystkie usługi, które mamy w całej Polsce, kupiliśmy w jednej firmie, która zaproponowała nam niższe stawki za KWh.

Myślę, że firmy zaczynają dokładniej analizować koszty prądu, kiedy znacznie rozbudowują infrastrukturę. Jeśli mamy w jednym ośrodku kartę, która pobiera 75 watów zamiast 37, to nikt nie zwraca na to uwagi. Jeżeli jednak instalujemy 100 kart, robi się spora różnica.

Przemysław Mujta, Crowley: To norma, że działy zajmujące się utrzymaniem sieci nie są rozliczane ze zużycia energii. Takie symulacje robi się tylko na etapie projektowania.

Andrzej Kubacki, Wasko: Jest coraz więcej centrów przetwarzania danych i centrów hostingowych. W takich ośrodkach zagadnienia związane z poborem mocy są niezmiernie istotne.

Netfocus: Czy lepsze są sieci homogeniczne czy heterogeniczne? Panuje przekonanie, że wybierając jednego dostawcę możemy wynegocjować niższe ceny. Z kolei przy różnych platformach niektórzy obawiają się problemów z komunikacją.

Wojciech Głażewski, Juniper: To mit, że mając jednego dostawcę, możemy zaoszczędzić. Przeciwnie – przeważnie jest drożej. Kiedy tworzymy sieć heterogeniczną, koszty jej zakupu spadają co najmniej o 20 procent. Wprawdzie niektórzy producenci, stosują na przykład niestandaryzowane protokoły/rozwiązania, promując tym samym implementacje homogeniczne, jednak na dłuższą metę takie rozwiązania nie sprawdzają się, bo oznaczają 100-procentowe uzależnienie od jednego producenta. To się klientom nie opłaca.

Przemysław Mujta, Crowley: Korzystanie z dwóch producentów jest lepszych także z punktu widzenia bezpieczeństwa. Jeśli pojawi się problem na jednej platformie, to przy jednym dostawcy można spodziewać kłopotów również z drugą platformą. Mając różnych dostawców, druga platforma powinna działać, jeśli pierwsza zawiedzie. W praktyce nie ma problemu współdziałania między różnymi platformami.


Marcin Zwierzchowski, Vectra:
Mając dwie platformy, pozostaje otwartą kwestia, czy są to platformy współpracujące czy pracujące równolegle. Teoretycznie, lepiej mieć sieć homogeniczną – w przypadku pojawienia się problemu lub wdrażania nowego rozwiązania jest wtedy o połowę mniej pracy i połowa potencjalnych problemów.

Jednak ze względu na bezpieczeństwo usług, zwłaszcza w ostatnich czasach kryzysu, alternatywny dostawca jest zawsze pożądany. Oczywiście, trzeba go starannie wybrać. Podkreślałem już wcześniej, że najważniejszą sprawą jest skalowalność i elastyczność rozwiązania w długim czasie. Koszty również powinniśmy liczyć w długim czasie. Jeśli dziś zaoszczędzę 50 tys. dolarów na projekcie, ale za rok coś przestanie działać i milion abonentów straci dostęp do świadczonych przez firmę usług, nikt nie będzie pamiętał o moich oszczędnościach. Nie stać nas na takie eksperymenty i sądzę, że żaden poważny operator również nie chciałby ryzykować.

Co do współpracy różnych platform – w naszej sieci z powodzeniem pracują urządzenia Junipera i Cisco. Urządzenia Cisco serii 7600 oraz Juniper seria MX to z mojego punktu widzenia bardzo podobne rozwiązania. Również na poziomie odbioru usługi przez abonenta nie ma znaczenia, jakie urządzenia wybierzemy. Możemy jechać tak samo szybko i wygodnie, zarówno Mercedesem,jak i BMW. Będzie jeszcze szybciej, gdy Juniper wprowadzi kartę 100 GE. Kiedy ona się pojawi?

Wojciech Głażewski, Juniper: W połowie roku 2010 można spodziewać się komercyjnej dostępności karty 100 GE do serii T, w drugiej połowie przyszłego roku – kart do serii MX (o całkowitej przepustowości 120Gb/s). Przy okazji ważna uwaga do pozycjonowania obu serii: otóż MX jest routerem zoptymalizowanym pod kątem Ethernetu. Na jego bazie można wprowadzać do sieci wszelkiego rodzaju usługi. Urządzenia serii T to typowe routery szkieletowe. Pozwalają na wykorzystanie i agregację różnych technologii, jak ATM, Gigabit Ethernet, POS oraz na rozbudowę węzłów do bardzo dużych przepływności, wykorzystując technologię multi chassis. Serię T można połączyć w macierz i wyskalować do 25 TB. Na wszystkich kartach jest nasz procesor internetowy. Nowy procesor Trio będzie bazą wykorzystywaną do budowy całej rodziny rozwiązań. Zwiększy się przepustowość, wydajność, możliwość wprowadzania usług. Gdybym miał sieć zbudowaną z wielu technologii, to na główny węzeł internetowy wstawiłbym serię T. Do budowy nowej sieci, opartej na technologii Ethernet, ukierunkowanej na wprowadzanie różnorodnych usług sieciowych, wybrałbym serię MX.

Netfocus: Dziękujemy wszystkim za udział w spotkaniu.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ