To już (obiecana!) druga moja notka o Internecie i (w dużym skrócie) i historii jego rozwoju. Powstała ona na podstawie moich osobistych doświadczeń. Gwarantuję, że podczas jej przygotowywania nie korzystałem z usług AI ;)
Ciąg dalszy nastąpi...
Mniej więcej tydzień temu opublikowałem na Salonie24 notkę poświęconą początkom mojej przygody z Internetem. Przyszłość wydawała (nie tylko mnie) świetlana, tym bardziej, że początkowe próby komercjalizacji oprogramowania poniosły porażkę. Udało mi się wówczas (w USA) kupić książeczkę zatytułowaną „Internet CD” z krążkiem zawierającym dość bogaty zestaw narzędzi programowych GNU – łącznie z jedną z pierwszych dystrybucji Linuksa Yggdrasil. Pora na ciąg dalszy...
Te początki przypominały wielki wybuch i charakteryzował je entuzjazm – cieszyliśmy się jak dzieci (miałem wówczas 46 lat) z możliwości zamówienia pizzy „przez Internet”. W maju 1994 r. w Genewie odbyła się pierwsza konferencja WWW1 (nazwana „Woodstock of the Web”). Już w grudniu 1994 r. szacowano (dane CERN), że na Świecie działa ok.10000 serwerów WWW, z których korzysta ponad milion użytkowników. Rozwój środowiska WWW początkowo był realizowany głównie przez środowiska naukowe (CERN, NCSA…). Nic więc dziwnego, że pierwsza przeglądarka graficzna (NCSA Mosaic) była początkowo dostępna jedynie dla środowiska X Window, a 90% serwerów wykorzystywało NSCA HTTPd (pierwsze serwery korzystały z CERN HTTPd). Obie te wersje udostępniano na zasadach Open Source.
Choć firma Netscape próbowała wprowadzić na rynek (pod nazwą Netsite) za drobną opłatą 5000 USD swoją własną komercyjną wersję serwera WWW to wkrótce ruszył „Apache Project” i pod koniec 1995 udostępniono jego wersję 1.0. W tym samym roku firmy Microsoft wprowadził Internet Information Server – ISS oraz przeglądarkę Internet Explorer rozpoczynając w ten sposób „wojnę o rząd dusz w Internecie”. Spotkało się to jednak ze sporym oporem środowiska i w miejsce promocji Explorera na stronach WWW zaczęły się pojawiać informacje „Viewable with ANY Browser”. Dominacja serwera Apache trwała dość długo (do 2006 r.), w którym nastąpił znaczący wzrost serwera Microsoftu, lecz wkrótce do gry wszedł nowy gracz ngix.
W 1996 r. liczba serwerów WWW przekroczyła ćwierć miliona, a w 1997 r. - milion! Błyskawicznie rosła także liczba oferowanych usług – darmowych, ale także płatnych lub finansowanych z zamieszczanych odpłatnie reklam. Spowodowało to ogromny wzrost ruch sieciowego, któremu nie mogły sprostać ówczesne sieci telekomunikacyjne – w 1996 r. pojawiły się więc nowe w USA pomysły– Next Generation Internet (inicjatywa wspierana przez wice Prezydenta Ala Gore) oraz Internet2 (konsorcjum naukowo-przemysłowe).
NGI w Stanach Zjednoczonych poniosło porażkę, lecz za pewien jego odpowiednik można uznać Komisji Europejskiej program pod nazwą NGI Initiative. Program Internet2 jest kontynuowany jako sieć łącząca amerykańskie uniwersytety i przeznaczona do wykorzystywania w celach edukacyjnych i badawczych.
Jak już napisałem pierwsze lata rozwoju Internetu charakteryzował powszechny wybuch entuzjazm – oto na naszych oczach powstawał nowy, wspaniały Świat. Wszelkie ograniczenia wydawały się znikać. Powszechna stała się poczta elektroniczna, a nieco później komunikatory oraz telefonia internetowa. Rozmowy z Polski do USA nie trzeba było już zamawiać i czekać na połączenie.Wpływ Internetu na społeczeństwa był nie do przecenienia. Świat tradycyjnych publikatorów – gazet, radia i TV stracił swój monopol informacyjny – jego miejsce zaczęła zajmować plotka i tak zwana „wieść gminna”. Piewcy różnych, „przełomowych” (w przekonaniu ich twórców!) wszelkiego rodzaju pomysłów, hipotez, a nawet idei zyskali dostęp do szeroko dostępnego medium. W Internecie od samego początku można znaleźć prawie wszystko – od rzetelnych prac naukowych i popularno-naukowych poprzez fantastyczne hipotezy pseudonaukowe aż po dyskusje polityczne i ostrą pornografię. Wkrótce doszły do tego działania komercyjne – Internet okazał się świetnym „słupem reklamowym” i tym samym źródłem całkiem dobrych zarobków. Powstawały portale przejmujące najczęściej rolę prasy brukowej, radia i telewizje internetowe, dedykowane kanały – wszystkie te na początku spontaniczne usługi ze względu na swój potencjalnie ogromny zasięg szybko stały się atrakcyjne dla reklamodawców i „domów mediowych”. Równocześnie do walki o tą kasę włączyły się i zaczęły walczyć między sobą o reklamodawców wyszukiwarki oraz „serwisy społecznościowe”. Internet stał się powszechną usługą komunikacyjną (np. dla banków), co spowodowało ogromny wzrost zapotrzebowania na wydajność i szybkość łączy.
Rosnący lawinowo ruch w Internecie wymusił wprowadzenie nowych rozwiązań. Zadanie to w dużej mierze przyjęło na siebie wspomniane konsorcjum Internet2. Komercyjni operatorzy telekomunikacyjni również nie mogli pozostać obojętni.
Aby sprostać tym wyzwaniom wprowadzono szereg nowych rozwiązań. Zasadniczy postęp w wydajności kanałów komunikacyjnych zapewniła przetestowana laboratoryjnie w 1980 r. technologia multipleksowania optycznego – początkowo WDM (Wavelength-Division Multiplexing), a nieco później DWDM (Dense Wavelength-Division Multiplexing). Idea rozwiązania fizycznie jest dość prosta – sygnały są przesyłane z użyciem różnych długości („kolorów”) fali świetlnej – w efekcie w nowoczesnych rozwiązaniach przez jedno włókno światłowodowe w powszechnie wykorzystywanym paśmie ITU 193.10 THz (1,552.52 nm) można przesyłać 40 lub 80 sygnałów, a nawet do 160 sygnałów. Komercyjnie DWDM wprowadzono już w 1996 r. w sieci Sprint. Dziś rozwiązania DWDM są dostępne także dla sieci miejskich, kampusowych, a nawet korporacyjnych.
Konsorcjum Internet2 udostępnia instytucjom edukacyjnym i badawczym usługi warstwy 1 o prędkości 100 i 400 G (400GBASE), warstwy 2 (kanały 100 Gb Ethernet) oraz warstwy 3 (z IPv6 i IPv4 z możliwością realizacji połączeń zewnętrznych). Łącznie konsorcjum Internet2 dysponuje ok. 25 000 km sieci światłowodowych na terenie USA o pojemności transmisyjnej ponad 30 Tb/s. Dzienne transmisje przez tą sieć przekraczają 7 Petabajtów. Według informacji Internet2 jest to równoważne przesyłaniu wszystkich danych zawartych w zbiorach biblioteki Kongresu USA zawierającej 160 milionów pozycji 350 razy dziennie (niestety dotychczas w postaci cyfrowej dostępnych jest jedynie niecałe 10% tych zbiorów...)!
Zarządzanie takimi sieciami to kolejne wyzwanie, któremu usiłuje sprostać rozwiązania SDN (Software Definied Network – w języku polskim programowalna sieć komputerowa) oraz SDN-WAN. Bez takich rozwiązań sprzętowych i programowych nie byłaby możliwa współpraca wielu centrów zawierających miliony serwerów (np. Google), komercyjnych chmur komputerowych (np. Amazon), realizacja natychmiastowych usług finansowych itp. Efektownym przykładem możliwości nowoczesnych „autostrad” telekomunikacyjnych może być obsługa paryskiej Olimpiady przez platformę MAX.
Bardzo daleko zaszliśmy od czasów wspomnianej w poprzedniej notce sensacji z zamawianiem pizzy w kalifornijskim Santa Cruz w 1994 r.!
Nazywam się Tomasz Barbaszewski. Na Świat przyszedłem 76 lat temu wraz z nadejściem wiosny - była to wtedy niedziela. Potem było 25 lat z fizyką (doktorat z teoretycznej), a później drugie tyle z Xeniksem, Uniksem i Linuksem. Dziś jestem emerytem oraz bardzo dużym wdowcem! Nigdy nie korzystałem z MS Windows (tylko popróbowałem) - poważnie!
Poza tym - czwórka dzieci, już szóstka! wnucząt, dwa koty (schroniskowe dachowce), mnóstwo wspaniałych wspomnień i dużo czasu na czytanie i myślenie.
Nowości od blogera
Inne tematy w dziale Technologie