Internet: wyzwania 25 lat temu i dziś

0

Rozmowa z Danielem Karrenbergiem, pionierem europejskiego Internetu w latach 80-tych XX w., a obecnie zajmującym stanowisko Chief Scientist w Ripe NCC, którego jest współtwórcą.

Netfocus: Zanim przejdziemy do tematów współczesnych chciałbym, ze względu na pańskie kilkudziesięcioletnie doświadczenie z sieciami komputerowymi, wrócić do lat 80-tych XX wieku i porozmawiać o wyzwaniach, z jakimi borykała się raczkująca wtedy branża internetowa?

Daniel Karrenberg: Wyzwaniem było samo budowanie sieci. W latach 80-tych w użyciu było wiele zastrzeżonych protokołów często działających w połączeniu z określonymi systemami operacyjnymi czy komputerami danego producenta. W tamtym czasie zasadniczo to był synonim, ponieważ każdy producentów komputerów miał swój unikalny system operacyjny, nawet Unix, który stał się pierwszym, otwartym system, działał wtedy tylko na określonym typie komputerów. Z naszego punktu widzenia istotne było, że każdy producent na własną rękę wyposażał swój system operacyjny w funkcje obsługi sieci.

W tym czasie pojawiła się koncepcja dołączenia TCP/IP do systemu Berkeley Unix i udostępniania całości jako otwartego, wolnego oprogramowania. Dzięki temu rozwiązanie to stało się interesujące dla uniwersytetów i ośrodków badawczych. Mniej więcej równocześnie zaczęły powstać sieci lokalne oraz Internet – w budynkach uniwersyteckich powszechnie budowano wydajne jak na tamte czasy sieci 10 Mbit/s i podłączano je do Internetu.

W tych sieciach działały różne protokoły i bardzo szybko zdano sobie sprawę, że potrzebny jest wspólny mechanizm, który umożliwi komunikację między komputerami różnych producentów. Tym mechanizmem szybko stał się zestaw protokołów TCP/IP, jednak wyzwaniem była jego implementacja w komputerach pochodzących od wielu producentów.

Netfocus: Do czego wtedy wykorzystywano sieci lokalne i Internet?

Daniel Karrenberg:
Gdy już udało się zapewnić transmisję między komputerami, ich użytkownicy chcieli się komunikować między sobą. Pierwszymi formami komunikacji była poczta elektroniczna. Co ciekawe, największym wyzwaniem z tym związanym były koszty, szczególnie koszty połączeń międzynarodowych. Dzisiaj pewnie mało kto jest w stanie sobie wyobrazić, ale wtedy taka komunikacja była bardzo droga. Pamiętam, że przesłanie z Niemiec do USA wiadomości, która miała 2 kilobajty, kosztowało około 0,2 euro. W takich warunkach nikt nie myślał o czymś takim, jak przesyłanie pocztą zdjęć. Wysokie koszty wynikały z faktu, że komunikacja związana z przesyłaniem danych odbywała się przez sieć z przełączaniem pakietów należącą do monopolisty, a częściowo po łączach telefonicznych, np. z wykorzystaniem modemu telefonicznego.

Byłem wtedy zaangażowany w projekt EUnet, którego celem była agregacja ruchu przekraczającego granice – to pozwalało otrzymać rabaty związane z większą ilością przesyłanych danych. Wszystkie e-maile z kraju były przesyłane do jednego hosta, zwanego węzłem szkieletowym (backbone node). Dopiero ten host przesyłał wiadomości do innych krajów. Z wykorzystaniem autodialera łączył się z siecią tylko nocy, gdy opłaty były niższe. W efekcie na odpowiedź trzeba było czekać co najmniej dwa dni.

Naturalną koleją rzeczy rosła ilość przesyłanych wiadomości, więc ceny jednostkowe zaczęły spadać. W pewnym momencie bardziej ekonomiczne stało się wykupienie linii dzierżawionej, nawet jeśli przepustowość tych linii była niewielka. Przykładowo, pierwsza używana przez nas linia miała 9,6 Kbit/s, ale i tak czuliśmy się królami, bo mogliśmy wysyłać więcej wiadomości.

Pierwsza międzykontynentalna linia dzierżawiona przeznaczona do publicznego użytku – wcześniej działały już linie przeznaczone do konkretnych celów badawczych – miała przepustowość 19,2 Kbit/s i łączyła Amsterdam z dystryktem Waszyngton. Mając już tę linią i płacąc za nią niezależnie od wykorzystania, uznaliśmy, że możemy uruchomić na niej mający niewielki narzut protokół IP. Dzięki temu mogliśmy zdalnie zalogować się do maszyny stojącej w USA. Tak samo nasi amerykańscy koledzy mogli dostać się do naszego hosta. W ten sposób mogliśmy zdalnie naprawiać ewentualne awarie, a wtedy było to dla nas coś fantastycznego. Dodatkowo różnica czasu sprawiała, że mieliśmy większe pokrycie dobowe i mogliśmy szybciej reagować w razie wystąpienia awarii. Ten sam proceder dotyczył również połączeń z krajami europejskimi.

W większości takie działania były wtedy nielegalne, co wynikało z zapisów prawa telekomunikacyjnego. Dlatego musieliśmy być bardzo ostrożni, żeby operator telekomunikacyjny, z którego łączy korzystaliśmy, nie zorientował się, co robimy. Pokonanie tych prawnych uregulowań było większym wyzwaniem niż pokonanie problemów technicznych.

Podsumowując, TCP/IP to dobrze zaprojektowany protokół, który nie wymaga centralizacji. Każdy może zbudować swoją sieć, podłączyć się do Internetu i wciąż całość będzie działać przy niewielkim nakładzie prac związanych z koordynacją.

Netfocus: Dla kontrastu, proszę opowiedzieć, z jakimi wyzwaniami obecnie zmaga się Pan, pracując w Ripe NCC?

Daniel Karrenberg: Od 2000 roku zajmuję stanowisko głównego naukowca. Wcześniej zajmowałem w Ripe NCC stanowisko dyrektora zarządzającego, więc obecnie robię to, co lubię – mam mniej odpowiedzialności i więcej zabawy. Obecnie największym wyzwaniem jest oczywiście wyczerpywanie się wolnej puli adresów IPv4.

Już w latach 90-tych ubiegłego wieku niektórzy twierdzili, że adresy IPv4 wyczerpią się w ciągu 2-3 lat. Jednak regionalne organizacje, jak Ripe NCC czy APNIC, wykonały świetną robotę, żeby temu zapobiec. Jednak nieuchronnie zbliżamy się do momentu, kiedy te starania będą niewystarczające. Brak wolnych adresów IPv4 nie oznacza, że Internet przestanie działać, ale że przestanie się rozrastać. Stagnacja jest czymś, czego absolutnie nie możemy zaakceptować.

Już 20 lat temu IETF, organizacja zatwierdzająca standardy internetowe, m.in. protokoły, zauważyła konieczność opracowania nowej wersji protokołu IP oferującej znacznie większą przestrzeń adresową. Wywołało to szeroką debatę na temat tego, czy nowy protokół ma jedynie zwiększyć przestrzeń adresową czy może także wprowadzić nowe funkcjonalności. Ponieważ obawiano się, że adresy IPv4 wyczerpią się już w 1996 roku, zrezygnowano z wprowadzania dodatkowych funkcjonalności, żeby przyspieszyć opracowanie nowego protokołu.

W efekcie powstał IPv6, który zapewni nam przestrzeń adresową na kilka dekad, jeśli nie na dłużej. Jednak nie oferuje on żadnych nowych funkcji, więc rozwiązuje tylko jeden problem – wyczerpywania się wolnych adresów. Nie przyspiesza działania sieci, nie generuje dodatkowych treści. Dlatego tak ciężko idzie przekonanie branży internetowej do wdrożenia tego protokołu. Z braku oczywistych korzyści wynikających z IPv6 jego poprzednik będzie używany tak długo, jak tylko będzie się to opłacać. To właśnie przekonanie branży internetowej do protokołu IPv6 jest naszym bieżącym wyzwaniem.

Netfocus: Czy protokół IPv6 ma szansę w bliskiej przyszłości zdominować komunikację w Internecie? A może raczej takie rozwiązania, jak Carrier Grade NAT jeszcze na wiele lat wydłużą żywotność IPv4?

Daniel Karrenberg: Inaczej niż trzy, cztery lata temu, obecnie chyba wszyscy są świadomi problemu. Nawet moi sąsiedzi z małego miasteczka, w którym mieszkam, pytają się mnie, czy faktycznie kończą się adresy IP. Obserwujemy również, że wielu operatorów prowadzi w środowisku produkcyjnym własne projekty, w większości będące jeszcze w fazie rozwojowej, związane z IPv6. Na razie toczą się one powoli, ale myślę, że będą przyspieszać.

W tym przypadku mamy do czynienia z problemem „jajka i kury”. Dostawcy treści nie są zainteresowani protokołem IPv6, ponieważ jest mało użytkowników końcowych korzystających z tego protokołu. Z kolei operatorzy sieciowi nie chcą udostępniać tego protokołu swoim klientom, ponieważ wciąż jest niewiele treści dostępnych za pośrednictwem IPv6. Jednak uważam, że ta sytuacja będzie powoli ewoluować.

Kolejna rzecz, którą warto wyjaśnić – wiele osób uważa, że w jakimś momencie nastąpi przełączenie z protokołu IPv4 na IPv6. To się na pewno nie stanie. Na pewno przez wiele lat będziemy równolegle używać obu tych protokołów.

W Ripe NCC korzystamy już z IPv6. Z własnego doświadczenia mogę powiedzieć, że poprzez IPv6 korzystamy z zasobów, zarówno wewnętrznych oraz zewnętrznych, i nie dostrzegam żadnej różnicy. Poza tym od paru miesięcy mój dostawca Internetu zapewnia obsługę IPv6. Zwykły użytkownik mógłby nawet nie zauważyć tego faktu.

Jeśli chodzi o prognozy, nie jest to pytanie do mnie, ale uważam, że w pewnym momencie nie będzie alternatywy dla IPv6. Jeśli spojrzeć na Carrier Grade NAT, nie jestem pewien, czy z biznesowego punktu widzenia jest to korzystne rozwiązanie, ponieważ wprowadza znaczną złożoność. Poza tym ma duży potencjał do ograniczania innowacji, ponieważ utrudnia komunikację – gdy użytkownik znajduje się za NAT’em, komunikacja staje się jednostronna. Obejściem problemu jest uruchamianie centralnych mechanizmów sterujących, tak jest m.in. w przypadku Skype, który jest przecież aplikacją P2P. Jednak jest to narzut komplikujący całe rozwiązanie.

Rozmawiał Rafał Janus

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ