#

Przed 50 laty rozpoczęła się epoka internetu

autor: Krzysztof Błaszkiewicz

| 2019-10-31 14:09:28

Internet, ziemia, hosting, bluserwer

Iskra

Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline’a odczuwamy do dzisiaj.

Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.

Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.

Trudne początki

Początków ARPANETU możemy szukać w… Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.

Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.

Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.

W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe’em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.


Gdy zaś już uniwersytety czy inne instytucje zdecydowały się na zakup systemów do podziału czasu, logicznym następstwem takiego działania byłoby udostępnienie swoich maszyn na zewnątrz. Musimy wiedzieć, że pomimo imponujących rozmiarów i cen, ówczesne mainframe’y były zdolne do przeprowadzania ograniczonego zestawu obliczeń. Takiego, jakich potrzebował ich właściciel, który kupował dany komputer. Jeśli jednak pojawiał się problem wymagający operacji, których komputer na danym uniwersytecie nie był w stanie wykonać, naukowcy byli w kropce. Niewiele instytucji było bowiem stać na zakup więcej niż jednego mainframe’a. Rozwiązaniem byłoby połączenie różnych komputerów w sieć i wzajemne udostępnianie sobie ich zasobów. Nie było to jednak zadanie łatwe.

W 1962 roku głównym zadaniem Biura Technik Przetwarzania Informacji, kierowanego najpierw przez Licklindera, następnie przez jego następców, było wybieranie, finansowanie i koordynowanie na terenie USA wszystkich prac związanych z zaawansowanymi technologiami komputerowymi i sieciowymi. Musimy sobie uświadomić, że w latach 60. zdalna komunikacja pomiędzy komputerami odbywała się za pośrednictwem linii telefonicznych. Na analogowych połączeniach nie można było polegać. Były one powolne, raz ustanowione połączenie było aktywne nawet wówczas, gdy nie były przesyłane dane, więc linia była zajęta np. podczas wprowadzania do komputera informacji przez operatora. Utrata przesyłanych danych była czymś powszechnym, a po takim wydarzeniu całą skomplikowaną procedurę trzeba było zaczynać od nowa i ponownie przesyłać dane. Taki sposób pracy był bardzo nieefektywny, kosztowny, czasochłonny i irytujący.

Problem ten rozwiązano poprzez przesyłanie danych w pakietach o stałej wielkości. Każdy pakiet zawiera adres odbiorcy i nadawcy, zestaw liczb pozwalający na ułożenie pakietów w odpowiedniej kolejności (pamiętajmy, że pakiety mogą nadejść do odbiorcy w różnym czasie, więc koniecznie jest ich późniejsze ułożenie w odpowiedniej kolejności) oraz przesyłane dane. Teorię stojącą u podstaw przesyłania danych w pakietach opracowało niezależnie trzech naukowców Leonard Kleinrock z MIT, Donal Davies z National Physical Laboratory w Wielkiej Brytanii oraz Polak Paul Baran z RAND Corporation w Kalifornii. Nazwa „pakiet” przyjęła się z pracy Daviesa, jednak to praca Barana była tą, która posłużyła do zbudowania pierwszej rozproszonej sieci komputerowej, która dała zaczątek internetowi, ARPANETu.

Znany think-tank RAND Corporation zajmował się w czasach Zimnej Wojny między innymi opracowywaniem scenariuszy na wypadek wojny, w tym np. hipotetycznymi wydarzeniami, jakie mogą nastąpić wskutek radzieckiego ataku nuklearnego na USA. Analitycy z RAND próbowali m.in. przewidzieć, na ile sieci telekomunikacyjne – niezbędne do sprawnego dowodzenia wojskiem – będą odporne na tego typu ataki. Paul Baran był jednym z głównych analityków RAND Corporation. W 1964 roku opublikował on pracę pod tytułem „On Distributed Communications”, w którym zarysował projekt systemu komunikacyjnego odpornego na atak nuklearny.

Wiadomo było, że nie jest możliwe zabezpieczenie pojedynczego punktu przed atakiem jądrowym. Zatem system komunikacyjny z punktem centralnym zostałby szybko zniszczony. Baran zaproponował budowę systemu, którego zniszczenie wymagałoby zaatakowania n z n stacjiJeśli więc n jest wystarczająco duże, to można w ten sposób stworzyć system, który będzie charakteryzował się dużą odpornością nawet na ataki epoki jądrowej, pisał Baran. Był on pierwszym, który zauważył, że mogą istnieć tylko dwa typy sieci komunikacyjnej: scentralizowany (o architekturze gwiaździstej) lub rozproszony. Z tego mogą powstać jedynie trzy różne architektury: scentralizowana, zdecentralizowana lub rozproszona. Z nich wszystkich rozproszona jest najbardziej odporna na ataki. W strukturze scentralizowanej i zdecentralizowanej zniszczenie pojedynczego węzła centralnego przerywa komunikację pomiędzy stacjami końcowymi. Z kolei w sieci rozproszonej zniszczenie jednego węzła nie prowadzi do utraty łączności z żadnym innym węzłem. Jeśli część takiej sieci przestaje działać, całość komunikacji można bez problemu przenieść do innej części.


Pomysł Barana wyprzedzał jednak swój czas. Odporna sieć według jego pomysłu wymagała dużej redundancji. Każdy z węzłów komunikacyjnych powinien łączyć się z co najmniej trzema lub czterema innymi węzłami. To można osiągnąć obecnie, dzięki technologii cyfrowej. W latach 60. komunikacja odbywała się drogą analogową. Opracowana przez Barana architektura obiecywała szybką, wydajną, odporną na zakłócenia sieć. RAND wierzyła w ten projekt. Jednak firmie nie udało się znaleźć partnerów do budowy takiej sieci. Prawdopodobnie możemy mówić tutaj o sporym szczęściu, gdyż internet mógłby wyglądać zupełnie inaczej niż dzisiaj.

Pomysł Barana najpierw odrzuciły US Air Force, a następnie firma AT&T. Menedżerowie telekomunikacyjnego giganta nie sądzili, by taka sieć mogła działać. Dzięki temu, że się tym projektem nie zainteresowali, internet nie został od początku komercyjnym projektem. Kto bowiem wie, jak potoczyłyby się jego losy. Trzeba uczciwie przyznać, że koncepcja Barana rzeczywiście była ówcześnie nie do zrealizowania. Jej autor wyobrażał sobie na przykład, że w roli ruterów będą wykorzystywane minikomputery. Takiej technologii nie było jeszcze w roku 1965. Minikomputery powstały kilka lat później.

Pracą Barana udało się zainteresować Pentagon. Tutaj jednak do głosu doszła wewnętrzna rywalizacja, w wyniku której zdecydowano, że projekt ma nadzorować Defence Communication Agency. Był to najgorszy możliwy wybór. Agencja ta nie tylko nie miała żadnego doświadczenia w technologiach cyfrowych, ale cieszyła się też fatalną opinią miejsca zsyłki dla pracowników, których chciały się pozbyć inne agencje rządowe.

W 1967 stanowisko dyrektora IPTO objął Lawrence Roberts. W październiku, podczas CM Symposium mówił on o powodach, dla których ARPA powinna zbudować sieć komputerową. Swoje założenia opublikował w czerwcu 1968 roku w ARPANET Program Plan, gdzie napisał, że program ten ma dwa cele: (1) opracowanie technik i zdobycie doświadczeń w łączeniu komputerów tak, by możliwe były między nimi różnego rodzaju interakcje oraz (2) ulepszenie i zwiększenie badań prowadzonych za pośrednictwem komputerów poprzez dzielenie ich zasobów. Nie ma tutaj ani słowa o zastosowaniach wojskowych. Jak widzimy, już na tym etapie ARPANET miał być przedsięwzięciem naukowym.

Jednak prace nad ARPANETem trwały już praktycznie od dwóch lat. W IPTO zauważono, że coraz większa społeczność badaczy, których prace są przez biuro koordynowane, staje się coraz bardziej złożona i jest bardzo źle zorganizowana. IPTO miało koordynować prace związane z rozwojem komputerów, tymczasem dostęp do maszyn był znakomicie utrudniony. Naukowiec pracujący w jednej instytucji nie miał większych problemów ze skorzystaniem z mainframe’u, który stał w tej instytucji. Mógł się do niego zalogować przez lokalny terminal. Jeśli jednak potrzebował np. aplikacji graficznej, która nie znajdowała się na jego mainframe, ale na komputerze w innej lokalizacji, to żeby się do niego zalogować musiał skorzystać z innego terminalu, użyć innego hasła i wykorzystywać inny język programowania. Nie istniała możliwość komunikacji pomiędzy wielkimi maszynami posługującymi się różnymi językami i zbudowanymi do różnych celów. Problem ten postanowił rozwiązać ówczesny dyrektor IPTO, Robert Taylor. Przedstawił go swojemu zwierzchnikowi, dyrektorowi ARPA. Ten wysłuchał, przyznał mu rację i zapytał, ile pieniędzy potrzebuje. Taylor chciał około miliona dolarów i je dostał. Cała rozmowa trwała około pięciu minut.

O ile jednak dyrektora udało się przekonać, to z innymi nie szło tak łatwo. Taylor przekonał się, że jego pomysł – podobnie jak pomysł Barana – wyprzedza swój czas. Wielu specjalistów, z którymi rozmawiał, podejrzliwie podchodziło do idei udostępniania komuś obcemu zasobów mainframe’a. Sytuacja uległa zmianie, gdy dzieło stworzenia ARPANETu powierzono utalentowanemu Lawrence’owi G. Robertsowi z Lincoln Lab na MIT.

Powstaje ARPANET

Ten zaledwie 29-letni naukowiec miał na swoim koncie prace nad innym przełomowym projektem. W 1966 roku wraz z kolegą Thomasem Marrillem, chcieli sprawdzić, czy możliwe jest połączenie za pomocą sieci telefonicznej dwóch superkomputerów – Q-32 z Kalifornii i TX-2 z Massachusetts. Praca miała pokazać, czy „bez wymuszania standaryzacji” uda się wykorzystać linie telefoniczne do budowy sieci komputerowej na skalę kontynentalną. Z czysto technicznego punktu widzenia eksperyment zakończył się powodzeniem. Jednak napotkano ten sam problem, z którym zetknął się Baran – sieć telefoniczna była zbyt wolna i zbyt zawodna, by można ją było wykorzystać. Eksperyment pokazał, że tego typu przedsięwzięcie może się udać, pod warunkiem jednak, że wykorzystana zostanie technika wysyłania danych w pakietach.

Roberts, gdy tylko został menedżerem ARPANETu, zaczął tworzyć plany sieci. Wykorzystał przy tym swoje doświadczenia z łączeniem Q-32 i TX-2. Na jego biurku powstały szkice różnych topologii. Radził się przy tym wielu innych specjalistów, w tym Licklidera, Kleinrocka, Daviesa i Barana. W końcu Roberts doszedł do wniosku, że do zbudowania sieci potrzebuje dwóch elementów. Po pierwsze protokołu komunikacyjnego, który zostanie zaakceptowany przez wszystkie 16 grup naukowych biorących udział w projekcie, po drugie zaś, protokół taki musiał być w stanie obsłużyć około 500 000 pakietów dziennie przesyłanych pomiędzy 35 komputerami połączonymi do 16 hostów. W ten sposób pomysł Barana o wykorzystaniu małych komputerów w roli ruterów zaczął nabierać kształtów.

Każdy z ruterów musiał być w stanie odbierać pakiety od połączonych z nim komputerów, dzielić pakiety na 128-bajtowe (1024-bitowe) bloki, dodawać do pakietu adres nadawcy i odbiorcy oraz wykorzystywać dynamicznie aktualizowaną tablicę routingu do wysyłania pakietu optymalną drogą. Długość 1024 bitów na pakiet wybrano, gdyż zapewniała ona elastyczność w zarządzaniu pakietami, a jednocześnie można było uniknąć przepełnienia komputera nadchodzącymi pakietami.

W lipcu 1968 roku ARPA zwróciła się do licznych firm z pytaniem, czy zbudują postulowane przełączniki sieciowe. Kilku wielkich – w tym IBM i CDC (Control Data Corporation) – omówiło twierdząc, że to nie ma prawa działać. Jednak inne firmy przesłały szczegółowe propozycje.

Ostatecznie wybrano niewielką firmę Bolt, Beranek and Newman (BBN), z którą podpisano kontrakt opiewający na milion dolarów. Przedsiębiorstwo miało do końca roku zbudować cztery przełączniki. Już sam wybór BBN, której głównym konkurentem był wieloletni partner Pentagonu, Raytheon, pokazuje, że internet od samego początku był przedsięwzięciem wymykającym się biurokratycznej filozofii instytucji państwowych. Nie bez znaczenia był tu fakt, że BBN skupiała świetnych specjalistów, z których wielu było w jakiś sposób powiązanych z ARPA. Ponadto Roberts dobrze wiedział, że współpraca z wielkimi zbiurokratyzowanymi przedsiębiorstwami jak Raytheon to strata czasu, którego połowę traci się na odnalezienie odpowiedniego człowieka, który w danym momencie może podjąć decyzję. BBN było niewielkim przedsiębiorstwem zatrudniającym świetnych fachowców, które dostarczyło bardzo dobrej dokumentacji opisującej proponowane przełączniki.

Zgodnie ze szkicem Robertsa pierwsze węzły ARPANETu miały znajdować się na Uniwersytecie Kalifornijskim w Los Angeles (UCLA), Uniwersytecie Kalifornijskim w Santa Barbara (UCSB), University of Utah oraz Stanford Research Institute (SRI).
Pierwszy komputer nowej sieci został zainstalowany w UCLA 1 września 1969 roku. Uniwersytet ten wybrano ze względu na pracującego tam Leonarda Kleinrocka i prowadzone przezeń Network Measurement Center. Jego zadaniem była analiza i pomiary ruchu sieciowego. Z kolei wybór SRI był podyktowany faktem, że działał tam znany już w tym czasie Doug Engelbart (wynalazca m.in. myszki komputerowej) stojący na czele projektu Augmentation on Human Intellect. W jego ramach tworzono narzędzia, takie jak bazę danych, system tekstowy oraz system przesyłania informacji, które były zgodne z ideą Robertsa spowodowania, by sieć komputerowa była przyjazna użytkownikowi.

I to właśnie pomiędzy tymi dwiema instytucjami – UCLA i SRI – 29 października 1969 roku około godziny 22:30 przesłano pierwszą wiadomość wykorzystując przy tym prawdziwą sieć komputerową w kształcie, jakim  posługujemy się dotychczas. Wiadomość została wymieniona pomiędzy maszynami SDS Sigma 7 (UCLA) i SDS 940 (SRI).

Ekspansja

Na początku lat 70. ubiegłego wieku cztery pierwsze węzły ARPANETu działały pełną parą. Jednak… niewiele osób było zainteresowanych korzystaniem z nich. Nic dziwnego. Obecnie niemal każde nowe urządzenia elektroniczne jest gotowe do współpracy z internetem. Wystarczy je podpiąć i już. Dysponujemy bowiem całym zestawem standardowych procedur komunikacyjnych i protokołów, które to umożliwiają. Przed 50 laty sytuacja wyglądała zgoła inaczej.

Co prawda ARPANET korzystał z wydajnego wiarygodnego sposobu wymiany pakietów, jednak brak było uniwersalnego języka komunikacji. Praktycznie każdy z hostów wykorzystywał cały zestaw różnych protokołów i haseł, które użytkownik musiał poznać. Nowej sieci niemal nikt nie używał, a w pierwszych miesiącach jej istnienia jedynym, co utrzymywało ją przy życiu byli… ludzie zmieniający pracę. Gdy naukowiec, który korzystał z ARPANETu, przenosił się ze swojej macierzystej uczelni do instytucji, w której akurat istniał węzeł sieci, odnotowywano wzrost użycia zasobów w nowym miejscu. Ci, którzy już pracowali przy ARPANECIE byli bowiem jedynymi, którzy wiedzieli, jak go używać. Znali wszystkie niezbędne procedury, które musieli wykorzystać w nowym miejscu pracy by połączyć się z komputerem ze starego miejsca pracy.

To była niezwykle frustrująca sytuacja. Dlatego też Roberts i jego współpracownicy powołali do życia Network Working Group która w 1972 roku zmieniła nazwę na International Network Working Group (INWG), a na jej czele stanął Vint Cerf. INWG było pierwszym specjalnym ciałem powołanym nie tylko do monitorowania sieci i rozwiązywania problemów technicznych, ale do całości zagadnień związanych z siecią komputerową. Również zagadnień moralnych czy filozoficznych. Dzięki zaś wizjonerskiemu wręcz pomysłowi pierwszego szefa NGW, Steve’a Crockera, ustanowiono nowatorski system komunikacji między członkami grupy.

Aby umożliwić dyskusje pomiędzy cała grupą Crocker wymyślił, że każdy z jej użytkowników będzie wysyłał w formie tekstowej tzw. Request for Comment (RFC), czyli ni mniej ni więcej tylko swoje uwagi dotyczące sieci. Żeby jednak nikt nikomu nie nastąpił na odcisk, Crocker stwierdził, że cała komunikacja RFC będzie nieformalna, żaden z członków grupy nie będzie posiadał w niej żadnego oficjalnego statusu, grupa ma być całkowicie otwarta, nie będzie przez nikogo zarządzana, a minimalna długość wypowiedzi ma wynosić 1 zdanie.

Ta otwartość, brak hierarchii oraz szeroka gama poruszanych tematów zachęciła wiele osób z zewnątrz do wzięcia udziału w RFC. Dyskutować jak równi z równymi mogli tam bowiem studenci, profesorowie i menedżerowie projektu, a dyskusje nie ograniczały się do czysto technicznych spraw związanych z siecią. W ten sposób zaczęła tworzyć się kultura otwartej wymiany opinii i informacji. Ta rodząca się kultura, w imię swobodnej wymiany myśli i rozwiązywania problemów, odsunęła na bok akademicką hierarchię, uznając, że najlepszym sposobem rozwiązania problemu jest jego przedyskutowanie w jak najszerszej otwartej społeczności. To był zaczątek tego, co narodziło się później – list dyskusyjnych, mailingowych, forów, w końcu serwisów społecznościowych.

Członkowie NWG potrzebowali niemal dwóch lat na napisanie swojego oprogramowania, jednak w końcu w roku 1970 ARPANET zyskał swój pierwszy protokół komunikacyjny o nazwie Network Control Protocol (NCP). Do grudnia tego samego roku sieć składała się już z 10 węzłów i 19 hostów, a cztery miesiące później rozrosła się do 15 węzłów i 23 hostów.

Mimo to ARPANET wciąż był niszowym projektem, o którego potencjalnej użyteczności niewiele osób miało pojęcie. Postanowiono więc, że podczas International Conference on Computer Communication, która odbyła się w Waszyngtonie w październiku 1972 roku zostanie przeprowadzony publiczny pokaz ARPANETu i jego możliwości. Pokaz okazał się wielkim sukcesem. Ludzie, którzy nie byli zaangażowani w projekt mogli zobaczyć, jak działa przesyłanie danych w postaci pakietów. W 1973 roku do ARPANETU dodano pierwsze międzynarodowe węzły z Wielkiej Brytanii i Norwegii, a w kolejnych latach w innych krajach zaczęły pojawiać się niezależne od ARPANETu sieci wykorzystujące pakietowe przesyłanie danych.

Już w 1972 roku powstała koncepcja „internettingu”, czyli stworzenia sieci o otwartej architekturze, która nie opierałaby się na hostach. Protokół NCP nie nadawał się do stworzenia takiej sieci, gdyż został napisany z myślą o połączeniach między hostami istniejącymi w ramach tej samej sieci. Prace nad nowym protokołem, umożliwiającym tworzenie otwartych dynamicznych sieci i łączenie ich następnie w większą sieć trwały kilka lat. W końcu, dwaj pracownicy BBN, Robert Kahn i Vint Cerf zaprezentowali Transfer Control Protocol/Internet Protocol (TCP/IP). Jak to wyjaśniał Vint Cerf zadaniem TCP jest po prostu pobranie strumienia danych stworzonych na jednym hoście i odtworzenie go w niezmienionej postaci na innym hoście. Nowy protokół umożliwiał połączenie ARPANETu z dowolną inną siecią na świecie, która na nim była wzorowana. W ten sposób powstały podwaliny pod prawdziwą ogólnoświatową sieć, do której dołączyć mógł każdy.

ARPANET się rozwijał, a opinia publiczna nie miała o nim większego pojęcia. W 1975 roku kontrolę nad tą siecią przekazano Defense Communication Agency (DCA). W tym czasie ARPANET składał się już z 57 węzłów. Im bardziej się rozrastał, tym trudniej było stwierdzić, kto sieci używa. Brak było narzędzi do monitorowania aktywności w sieci. W DCA zaczęto się tym martwić, gdyż szybko rozrastająca się sieć i brak kontroli mogły stanowić poważny problem z punktu widzenia bezpieczeństwa narodowego.

Major Joseph Haughney, odpowiedzialny w DCA za zarządzanie ARPENETem, ostrzegał odchodząc na emeryturę: jedynie personel wojskowy lub osoby zatwierdzone przez instytucje biorące udział w tworzeniu ARPANETu powinny mieć dostęp. […] Pliki nie powinny być wymieniane, o ile nie zostaną uznane za publiczne lub też o ile ich właściciel nie wyrazi zgody. Pliki publiczne w ARPANECIE nie powinny być publicznymi poza nim, nie powinny być transferowane, a ich zwartość nie powinna być przekazywana poza ARPANET bez zgody DCA lub twórców ARPANETu.

Ostrzeżeń Haughneya nikt jednak nie słuchał. Nie istniał żaden sposób, by jego zalecenie wprowadzić w życie. Zresztą sam Haughney przyznawał, że większość węzłów posiada bardzo słabą lub nie posiada żadnej kontroli dostępu. Już na początku lat 80. ARPANET był po prostu siecią autoryzowanych i nieautoryzowanych użytkowników. Podłączyć doń mógł się każdy, a szybki spadek cen komputerów powodował, że coraz więcej osób korzystało z takiej możliwości.

Od ARPANETu do internetu

W końcu w roku 1983 Pentagon dokonał podziału ARPANETU na dwie sieci. Jedna z nich, nadal zwana ARPANETEM pozostała otwarta i miała służyć głównie społeczności naukowej, druga zaś – MILNET – stała się siecią wojskową, w której zastosowano takie zabezpieczenia jak silne szyfrowanie i kontrola dostępu. Mniej więcej do połowy lat 80. ARPANET stał się niezwykle popularnym narzędziem pracy dla naukowców i programistów. Jednak cieszył się on też coraz większym zainteresowaniem innych grup społecznych i zawodowych. Powoli też kładziono podwaliny pod komercjalizację sieci. Była ona dziełem amerykańskiej Narodowej Fundacji Nauki (NSF). Od 1984 roku używała ona ARPANETU w roli zasadniczego elementu swojej własnej sieci NFTNETu, jednak jeszcze przed rokiem 1988 NSF zainicjowała działania mające na celu zachęcenie do budowania „prywatnych sieci długodystansowych”. NSF chciała, by rozwojem sieci nie zajmowały się tylko instytucje naukowe czy rządowe, ale by powstawały małe lokalne sieci zapewniające swoim użytkownikom łączność z ARPANETem.

Projekt ARPANET został oficjalnie zamknięty w 1990 roku, a w 1995 roku wyłączono NFTNET. W tym czasie wielka sieć przestała być już domeną naukowców i wojskowych, a stała się internetem, z którego korzystać mógł każdy. Było to możliwe dzięki pracy Tima Bernersa-Lee i stworzeniu przez niego World Wide Web. Berners-Lee osobiście zbudował zasadnicze elementy WWW: wykorzystujący hipertekst język HTML, internetowy adres w formie łatwej do przyswojenia czyli URI (URL) oraz protokół HTTP pozwalający na korzystanie z odnośników. Jest on też autorem pierwszego edytora i przeglądarki internetowej oraz pierwszego webserwera.

W ciągu tych kilku dziesięcioleci, jakie minęły od czasu przesłania pierwszej informacji pomiędzy połączonymi w sieć komputerami dokonała się olbrzymia rewolucja technologiczna, społeczna i kulturowa. Z internetu korzysta już ponad 4,3 miliarda ludzi. Ma on swoje blaski i cienie, jednak jego wpływ na nasze życie polityczne, osobiste czy społeczne jest tak olbrzymi, że z pewnością internet można zaliczyć do jednych z największych wynalazków ludzkości.

Źródło: kopalniawiedzy.pl/internet-ARPANET-Paul-Baran-siec-komputer-mainframe-Vint-Cerf-Tom-Berners-Lee-WWW,30945,5