Telematica: breve storia di Internet
1957: Tutto inizia con la messa in orbita dello Sputnik (primo satellite artificiale) da parte dell'Urss. In risposta a questo evento nacque l'Advanced Research Project Agency (Usa), con lo scopo di ristabilire il primato americano.
Anni '60: le basi della comunicazione decentralizzata
Una delle domande fondamentali di questo periodo era: "Come avrebbero potuto, i centri nevralgici del paese, comunicare dopo una guerra nucleare?" Paul Baran rispose dicendo che la rete non doveva avere nessuna autorità centrale e doveva essere concepita in modo da operare in un contesto di instabilità. Tutti i nodi dovevano essere indipendenti, con pari gerarchia e capaci di originare, passare e ricevere i messaggi. Questi sarebbero stati scomposti in pacchetti targati e indirizzati verso la propria destinazione; raggiunta poi la meta finale, ricomposti.
La strada era suggerita da una serie di computer programmati per monitorare tutti gli snodi.
- 1965: L'Arpa sponsorizza uno studio sui "cooperative network of time-sharing computers".
- 1967: In Inghilterra mettono su NPL data network.
- 1968: L'embrione della rete è nato e si chiama Arpanet. Il primo nodo è installato presso la UCLA nel '69; continuerà a crescere senza sosta.
Anni '70: evoluzione dei protocolli e nascita della posta elettronica
Le macchine devono parlare la stessa lingua, l'idioma, originariamente, si chiama Network Control Protocol, da cui nasceranno l'FTP e il TCP/IP. Il TCP/IP funziona in due fasi: 1) il Transmission Control Protocol seziona i messaggi, per poi ricomporli una volta a destinazione; 2) l'Internet Protocol ha la responsabilità dell'indirizzamento delle porzioni di dati attraverso nodi multipli e networks.
- 1972: Nasce la posta elettronica; il NWG accoglie l'idea di integrare nel protocollo FTP le specifiche per mandare e ricevere messaggi.
- Cominciano ad apparire programmi per leggere i messaggi.
- 1973: Cerf disegna l'architettura dei gateway, i computer passerella tra un sistema e un altro.
- 1975: Viene creato il primo gruppo di discussione, ospitato sull'host della DARPA e battezzato MsgGroup; fanno poi la comparsa altri gruppi simili, ospitati su host universitari.
- 1979: Nasce Usenet, che collega i computer della Duke University e della U. of North Carolina, permettendo lo scambio di messaggi. Due anni dopo viene creata Bitnet.
- Queste reti potevano comunicare con Arpanet grazie ai gateway basati su TCP/IP.
Anni '80: espansione e innovazioni tecnologiche
1982: Creazione di Eunet per fornire email e servizi Usenet, vede la luce anche Earn.
1983: Il ramo militare della rete forma Milnet; Arpanet diventa un quartiere periferico. I nodi di Arpanet passano attraverso TCP/IP. Alcuni studiosi si misero a lavorare a un nuovo sistema per individuare i nodi della rete.
- Legge di Moore: "La potenza di calcolo e la capacità dei computer raddoppia ogni 18 mesi".
- Legge di Metcalfe: "Il valore di una rete è proporzionale al quadrato del numero degli utilizzatori".
- 1984: Viene introdotto il Domain Name System, un programma client/server che funziona in un server e traduce i nomi mnemonici utilizzati dagli utenti per identificare un sito negli indirizzi IP, introducendo i domini (.mil, .gov, .com, .org, .net, ecc.).
- 1986: Nasce la prima comunità virtuale (WELL).
- La National Science Foundation capisce che la rete è una risorsa strategica di prim'ordine, così mette a disposizione fondi di ogni tipo. La NSFNet che ne scaturisce, collega computer dell'ultima generazione attraverso una dorsale che consente una velocità di 56kbps. Tutte le università aderiscono all'offerta della NFS. A ciò si affianca la diffusione delle reti locali – il numero di host decuplica.
- Il dorsale della NSFnet viene aggiornato ad una rete T1 a 1.5444 mbps. Arpanet ha esaurito la sua funzione.
Anni '90: introduzione del World Wide Web e dei browser
1989: Uno scienziato del Cern inventa un sistema di accesso alle informazioni in Internet, il World Wide Web (www), il linguaggio html e il protocollo di trasmissione http. Il www è un insieme di files, chiamati siti web, identificati da URLs (Uniform Resource Locators).
1991: La rete viene aperta per uso commerciale. Vengono attivate le connessioni T3.
- 1992: Nasce Eudora: il primo client di posta elettronica user-friendly.
- 1993: Il Cern firma un documento in cui si stabilisce che il web non è proprietà di nessuno; il www diventa patrimonio globale – boom. Mosaic arriva sulla rete, è il primo software a interfaccia grafica di navigazione che permette di spostarsi facilmente sul web.
- 1994: Nasce Netscape Navigator, il primo browser di grande successo. Nasce Yahoo.
- 1995: Nascono Lycos e Alyavista. Www e motori di ricerca sono nominati "tecnologie dell'anno".
- 1996: Da tenere sotto osservazione sono Java e VRML. Gli utenti connessi a internet sono 40 milioni. La Microsoft rilascia la prima versione di Explorer.
- 1999: Viene lanciato Napster.
- 2000: I siti www sono 21.1 milioni.
- 2001: Le email inviate ogni giorno sono 10 miliardi.
Internet e www
Cos'è il World Wide Web?
Definizioni:
- È l'iniziativa che mira a fornire un sistema di reperimento di informazioni su larga scala per l'accesso a un vasto insieme di documenti.
- È un sistema distribuito eterogeneo, collaborativo di gestione delle informazioni multimediali.
- È l'universo di informazioni accessibili via rete, l'incorporamento delle conoscenze umane.
Il www è stato in grado di fornire, tramite la rete di computer, un permanente accesso a una varietà di informazioni, disponibili in diversi formati, tramite un aspetto molto semplice. Usando un'interfaccia software sul web, è stata creata la prima vera rete ipertestuale globale. Alla base del successo del www c'è la possibilità di raggiungere le informazioni da tutto il mondo. La semplicità d'uso è un fattore chiave che ne ha permesso diffusione e sviluppo; è ciò è associata la leggibilità universale del web, ossia la possibilità di potersi connettere a internet tramite qualunque tipo di computer.
Le origini
I concetti che stanno alla base del web non sono molto nuovi. Nel '45 uno studioso, Bush, esponeva l'idea di una macchina capace di memorizzare informazioni testuali e grafiche: memex; esso proponeva un dispositivo basato su un meccanismo foto-elettrico-meccanico per la memorizzazione di documenti, oltre alla possibilità di poter creare e seguire collegamenti tra documenti memorizzati su microfilm.
L'Online System, era un sistema proposto da Engelbart; la prima implementazione al mondo di quello che poi fu chiamato ipertesto. Nel '62, in un articolo, veniva presentato Online System (NLS), un sistema che introduceva innovazioni tra cui: mouse, modifica di documenti su monitor, collegamento tra oggetti (link), protocollo per terminali multipli, teleconferenza, word processing e presentazioni.
Nel '65 Nelson conia il termine hypertext (ipertesto), che è un testo con collegamenti (link); essi nascono da un progetto di un sistema integrato di gestione della letteratura. Il sistema, chiamato Xanadu, era basato su server che costruivano documenti virtuali basati su pezzi di testo di lunghezza arbitraria, e client che permettevano la creazione di link.
La nascita del www
Negli anni '80 c'erano molti ostacoli allo scambio effettivo dei dati. Erano presenti una vasta varietà di tipi di computer e di sistemi di rete con nessuna caratteristica in comune, e le informazioni erano di tipo diverso e potevano essere accedute in modi diversi, creando una sensazione di sconforto e inefficienza. Questo creò terreno fertile all'invenzione del www, che poteva accedere alle informazioni derivanti da qualunque tipo di sistema in maniera semplice e coerente.
Requisiti
- Essere accessibile via rete.
- Permettere l'accesso da sistemi eterogenei.
- Essere non centralizzato.
- Fornire accesso a dati esistenti.
- Avere aree private.
- Avere accesso a dati anche in fase di lavoro.
Berners-Lee, che lavorava al Cern, propose un sistema che rispondeva ai requisiti. L'informazione era posta al centro del modello, indicata con "this document"; il documento era descritto tramite un ipertesto e descriveva la proposta Mesh, che proponeva un sistema di unificazione dei CernDoc, ecc; il documento ipertestuale includeva altre informazioni riferite tramite collegamenti ipertestuali. Berners-Lee e Calliau scrivono il primo browser ipertestuale: www; esso aveva integrato sia browser che editor, e aveva la possibilità di creare nuovi documenti e modificare quelli esistenti.
Storia del www
Gli anni 1989-90 sono stati un periodo di divulgazione del progetto del www, che nel '91 si è evoluto a una velocità impressionante. Nel '91 nascono i primi browser e server multi-piattaforma. Nel '91 il browser Viola aggiunge la possibilità di vedere anche le immagini.
Nel '93 la Ncsa rilascia il browser Mosaic. Nel '94 viene fondata la Mosaic Communication Corporation che produce il browser Mosaic Netscape. Nel '95 viene rilasciata la prima versione pubblica di Apache; rilasciato Internet Explorer 2.
Nel '97 nasce XML, il linguaggio di markup che diventerà uno dei mattoni fondamentali del web. Nel '98 quinta generazione dei browser; nasce Mozilla. Dal '98 in poi la ricerca sul web si sposterà verso la famiglia delle tecnologie XML; poi si svilupperanno quelle tecnologie che renderanno possibile una maggiore integrazione delle varie tecnologie web.
Il web e internet
Il web è solo uno dei servizi di comunicazione basati su internet. In internet sono essenziali tre elementi: connessione fisica, comportamenti comuni e servizi.
Connessioni fisiche
I cavi sono infrastrutture passive, mantenute da enti pubblici e compagnie di telecomunicazioni. I cavi hanno differenti capacità: una singola linea telefonica può trasportare circa 56 kilobytes al secondo; le fibre ottiche migliaia di milioni di bytes al secondo. I cavi sono tutti interconnessi tra loro.
Le regole di comportamento comuni
Per poter dialogare con gli altri è necessario concordare con loro delle regole di comportamento. I computer devono usare i collegamenti fisici in accordo a delle regole concordate. Internet trasferisce le informazioni in piccoli pacchetti scambiati tra computer; i computer sono soggetti a delle regole: devono usare lo stesso protocollo di comunicazione.
Il protocollo più comune utilizzato è il Transmission Control Protocol / Internet Protocol (TCP/IP).
Servizi per tutti
Una volta che si hanno le connessioni fisiche e i protocolli di rete è possibile comunicare con gli altri computer. Tramite internet possono funzionare diversi servizi: posta, trasferimento file, connessioni a server, ecc. Il www è uno dei servizi, può essere visto come una distribuzione personalizzata delle informazioni.
Come funziona il web
Per usare il web c'è bisogno di un computer, una connessione a internet e un browser. Quando utilizzi il tuo browser, lui trova e mostra pagine di informazioni. Il ruolo del browser è quello di interpretare il linguaggio delle pagine web e trasformarlo in testo e immagini che puoi vedere sul tuo schermo. I documenti sono memorizzati in computer chiamati server, che forniscono i documenti agli utenti che possono visualizzarli richiedendoli tramite il loro computer, chiamato client.
Questo modello è chiamato client/server. I computer che partecipano a questo meccanismo sono collegati a internet. Quando tramite il browser clicchi su un iperlink, il tuo computer richiede a un server di restituirgli un documento che ti verrà poi mostrato nel browser. L'abilità del web di negoziare il formato delle informazioni tra client e server rende possibile poter scambiare informazioni di qualunque tipo se il client possiede il software appropriato per poter maneggiare l'informazione ricevuta.
Principi fondamentali del www
I concetti fondamentali sui quali si basa sono: leggibilità universale, ipertesti, ricercabilità dei documenti, modello client-server, negoziazione del formato.
- Leggibilità universale: Le informazioni disponibili sul web possono essere reperite da ogni tipo di computer, da ogni paese nel mondo tramite il web, da qualunque persona, tramite un programma di navigazione.
- Gli ipertesti: Essi danno, tramite iperlink, la possibilità di saltare da una parte all'altra del testo. Il concetto di ipertesto si è evoluto in ipermedia (testo, immagini, video, ecc). Entrambi permettono di: navigare tra le informazioni in modo sequenziale; riferire informazioni dislocate in posizioni diverse.
- La ricercabilità delle informazioni: I documenti messi a disposizione tramite il web dovevano essere ricercabili. Il web nasce con le basi per lo sviluppo dei motori di ricerca e questo è permesso da: reperibilità permanente dei documenti; accessibilità dei documenti da parte di indicizzatori.
- Modello client/server: Il web segue il modello client/server dove le informazioni sono: memorizzate sui server web; raggiungibili tramite un client web.
- La negoziazione del formato: Essa è il meccanismo tramite il quale insieme alle informazioni che si scambiano sulla rete viene anche inviato il tipo dell'informazione che stiamo passando attraverso il quale i vari client possono decidere se l'applicazione che devono utilizzare per trattare il contenuto ricevuto.
Le tecnologie e i protocolli fondamentali del www
Il www si basa su alcuni protocolli e tecnologie fondamentali: HTTP (Hypertst Transfer Protocol) – serve per scambiare le informazioni; URI (Uniform Resource Identifier), URL (Uniforme Resource Locator) – identificare le informazioni; HTML (Hypertext Markup Language) – rappresentare le informazioni stesse.
Http
Il web utilizza un proprio protocollo per trasferire le informazioni, l'http, che trasmette le proprie informazioni tramite una connessione TCP/IP. Http fornisce: un sistema veloce di trasferimento dati; un sistema senza stati; un'architettura estendibile; un sistema per la negoziazione dei differenti tipi di dato trasferiti.
Fasi della comunicazione client/server necessarie per comporre una pagina web
- Il client richiede al server il testo del documento all'interno del quale possono esserci riferimenti ad altri oggetti da richiedere al server (immagini, file esterni, css, ecc).
- Il client ogni qual volta trova nel testo del documento degli oggetti esterni necessari per visualizzare la pagina le richiede al server con un'altra richiesta http.
- Infine il client mostra all'utente la pagina composta da tutti gli elementi richiesti e al client è possibile visualizzare la pagina web completa.
Breve storia dell'http
L'http nella sua versione originaria, del 1990, è conosciuto come http 0.9, ora è http 1.1. Le Request for Comments (RFC) sono una serie di documenti tecnici e note organizzative che trattano di internet. Esse discutono una serie di aspetti delle reti di computer. Il processo di pubblicazione delle RFC gioca un ruolo importante nel processo di standardizzazione di internet. L'RFC Editor è il responsabile della pubblicazione delle RFC.
Http 1.1
Esso è retro compatibile con http/1.0. Il protocollo http fornisce le regole per le interazioni tra client e server, tra cui: messaggi tra client e server; regole per fare richieste al server; regole per fornire le risposte al client; metodi per stabilire le connessioni tra client e server; codici di stato.
- Status code più comuni e utilizzati: 200 – ok, la richiesta è corretta; 404 – not found, la risorsa richiesta non esiste; 301 – moved permanently, la risorsa non è più disponibile a questo indirizzo; 505 – server error, si è verificato un errore sul server.
- Gli status code si suddividono in categorie: 1xx – messaggi informativi; 2xx – indicano una richiesta soddisfatta; 3xx – redirezionano il client a un altro indirizzo; 4xx – indicano un errore da parte del client; 5xx – indicano un errore da parte del server.
Richieste multiple
L'http ha la possibilità di fare richieste multiple; diminuisce il "round-trip time" globale, ossia il tempo che intercorre tra l'inizio della richiesta e la fine della risposta.
Connessione permanente
L'http ha la possibilità di mantenere una connessione permanente; mantenendo la connessione aperta per farvi transitare tutte le altre connessioni virtuali.
Uri
Le risorse del web sono identificate tramite una URI, che identifica in modo univoco una risorsa sul web. Esse sono un concetto non legato solo alle risorse web.
Composizione delle URI
Esse sono composte dallo schema e dalla parte specifica dello schema. Esempi di URI sono: schema ftp, schema http, schema mailto.
URI schema
Esse definiscono la metodologia per individuare la risorsa in modo univoco. La <scheme-specific-part> viene interpretata in funzione di quale schema stiamo utilizzando.
URI http
Esse sono così composte: http_URI = "http:" "//" [authority "@"] host [":" port] [abs_path] → authority, informazioni utili per l'autorizzazione; host, un nome a dominio o un indirizzo IP; port, un numero intero; abs_path, identificativo per raggiungere la risorsa sull'host indicato.
Struttura ad albero degli URI http
Essi hanno una struttura ad albero gerarchica delimitata da "/".
Elementi riservati e valori predefiniti nelle URI
Alcuni caratteri nelle URI sono riservati poiché coprono particolare esigenze. Le URI http hanno dei valori predefiniti: se la porta non è esplicitamente indicata viene impostata a 80; se abs_path non è esplicitamente indicato viene impostato a "/".
URL
La URL è un concetto informale per identificare un tipo di URI. Le URL sono URI che identificano una risorsa tramite la rappresentazione del metodo di accesso alla risorsa stessa.
Linguaggi di markup
I linguaggi di markup sono stati scelti per rappresentare dei documenti, identificando delle porzioni di testo tramite dei marcatori (i tag). L'HTML, insieme a XML, è forse il più famoso dei linguaggi di markup, e trae le sue origini dallo Standard Generalized Markup Language (SGML).
-
Riassunto Fondamenti di Telematica
-
Telematica - Sviluppo - Tesina
-
Esercizi svolti, Telematica
-
Riassunto esame Telematica, prof. Ciuffoletti, libro adottato "Computer Networking: A Top-Down Approach" di James F…