Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

TELEMATICA

Breve storia di internet

- 1957: tutto inizia con la messa in orbita dello Sputnik (primo satellite artificiale) da parte dell'Urss. In risposta

a questo evento nacque l'Advanced Research Project Agency (Usa), con lo scopo di ristabilire il primato

americano.

- anni '60: ci si chiede “come avrebbero potuto, i centri nevralgici del paese, comunicare dopo una guerra

nucleare?” (sicuro bersaglio strategico dei nemici). Paul Baran risponde dicendo che la rete non doveva avere

nessuna autorità centrale e doveva essere concepita in modo da operare in un contesto di instabilità; tutti i nodi

dovevano essere indipendenti, con pari gerarchia e capaci di originare, passare e ricevere i messaggi. Questi

sarebbero poi stati scomposti in pacchetti targati e indirizzati verso la propria destinazione; raggiunta poi la

meta finale, ricomposti. La strada era suggerita da una serie di computer programmati per monitorare tutti gli

snodi.

- 1965: l'Arpa sponsorizza uno studio sui “cooperative network of time-sharing computers”.

- 1967: in Inghilterra mettono su NPL data network.

- 1968: l'embrione della rete è nato e si chiama Arpanet. Il primo nodo è installato presso la UCLA nel '69;

continuerà a crescere senza sosta.

- anni '70: le macchine devono parlare la stessa lingua, l'idioma, originariamente, si chiama Network Control

Protocol, da cui nasceranno l'FTP e il TCP/IP. Il TCP/IP funziona in 2 fasi: 1) il Transmission Control Protocol

seziona i messaggi, per poi ricomporli una volta a destinazione; 2) l'Internet Protocol ha la responsabilità

dell'indirizzamento delle porzioni di dati attraverso nodi multipli e networks.

- 1972: nasce la posta elettronica; il NWG accoglie l'idea di integrare nel protocollo FTP le specifiche per

mandare e ricevere messaggi.

- anni '70: cominciano ad apparire programmo per leggere i messaggi.

- 1973: Cerf disegna l'architettura dei gateway, i computer passerella tra un sistema e un altro.

- 1975: viene creato il primo gruppo di discussione, ospitato sull'host della DARPA e battezzato MsgGroup;

fanno poi la comparsa altri gruppi simili, ospitati su host universitari.

- 1979: nasce Usenet, che collega i computer della Duke University e della U. of North Carolina, permettendo lo

scambio di messaggi. Due anni dopo viene creata Bitnet.

- anni '70: queste reti potevano comunicare con Arpanet grazie ai gateway basati su TCP/IP.

- 1982: creazione di Eunet per fornire email e servizi Usenet, vede la luce anche Earn.

- 1983: il ramo militare della rete forma Milnet; Arpanet diventa un quartiere periferico. I nodi di Arpanet

passano attraverso TCP/IP. Alcuni studiosi si misero a lavorare a un nuovo sistema per individuare i nodi della

rete.

- legge di Moore: “la potenza di calcolo e la capacità dei computer raddoppia ogni 18 mesi”

- legge di Metcalfe: “il valore di una rete è proporzionale al quadrato del numero degli utilizzatori”

- 1984: viene introdotto il Domain Name System, un programma client/server che funziona in un server e

traduce i nomi mnemonici utilizzati dagli utenti per identificare un sito negli indirizzi IP, introducendo i domini

(.mil, .gov, .com, .org, .net, etc)

- 1986: nasce la prima comunità virtuale (WELL).

- // : la National Science Foundation capisce che la rete è una risorsa strategica di prim'ordine, così mette a

disposizione fondi di ogni tipo. La NSFNet che ne scaturisce, collega computer dell'ultima generazione

attraverso una dorsale che consente una velocità di 56kbps. Tutte le uni aderiscono all'offerta della NFS. A ciò si

affianca la diffusione delle reti locali – il numero di host decuplica.

- anni '80: il dorsale della NSFnet viene aggiornato ad una rete T1 a 1.5444 mbps. Arpanet ha esaurito la sua

funzione.

- 1989: uno scienziato del Cern inventa un sistema di accesso alle informazioni in Internet, il World wide web, il

linguaggio html e il protocollo di trasmissione http. Il www è un insieme di files, chiamati siti web, identificati

da URLs (Uniform resourse locators).

- 1991: la rete viene aperte per uso commerciale. Vengono attivate le connessioni T3.

- 1992: nasce Eudora: il primo client di posta elettronica user-friendly.

- 1993: il Cern firma un documento in cui si stabilisce che il web non è proprietà di nessuno; il www diventa

patrimonio globale – boom.

- // : Mosaic arriva sulla rete, è il primo software a interfaccia grafica di navigazione che permette di spostarsi

facilmente sul web.

- 1994: nasce Netscape navigator, il primo browser di grande successo. Nasve yahoo.

- 1995: nascono Lycos e Alyavista. Www e motori di ricerca sono nominati “tecnologie dell'anno”.

- 1996: da tenere sotto osservazione sono java e vrml. Gli utenti connessi a internet sono 40milioni.

- 1996: la Microsoft rilascia la prima versione di Explorer.

- 1999: viene lanciato Napster.

- 2000: i siti www sono 21.1 milioni.

- 2001: le email inviate ogni giorno 10 miliardi.

Internet e www

Cos'è il World Wide Web? Definizioni:

1) è l'iniziativa che mira a fornire un sistema di reperimento di informazioni su larga scala per l'accesso a un

vasto insieme di documenti;

2) è un sistema distribuito eterogeneo, collaborativo di gestione delle informazioni multimediali;

3) è l'universo di informazioni accessibili via rete, l'incorporamento delle conoscenze umane.

Il www è stato in grado di fornire, tramite la rete di computer, un permanente accesso ad una varietà do

informazioni, disponibili in diversi formati, tramite un aspetto molto semplice. Usando un'interfaccia software

sul web, è stata creata la prima vera rete ipertestuale globale. Alla base del successo del www c'è la possibilità di

raggiungere le informazioni da tutto il mondo. La semplicità d'uso è un fattore chiave che ne ha permesso

diffusione e sviluppo; è ciò è associata la leggibilità universale del web, ossia la possibilità di potersi connettere

a internet tramite qualunque tipo di computer.

Le origini: I concetti che stanno alla base del web non sono molto nuovi. Nel '45 uno studioso, Bush, esponeva

l'idea di una macchina capace di memorizzare informazioni testuali e grafiche: memex; esso proponeva un

dispositivo basato su un meccanismo foto-elettrico-meccanico per la memorizzazione di documenti, oltre alla

possibilità di poter creare e seguire collegamenti tra documenti memorizzati su microfilm. L'Online system, era

un sistema proposto da Engelbart; la prima implementazione al mondo di quello che poi fu chiamato ipertesto.

Nel '62, in un articolo, veniva presentato Online system (NLS), un sistema che introduceva innovazioni tra cui:

mouse, modifica di doc. su monitor, collegamento tra oggetti (link), protocollo per terminali multipli,

teleconferenza, word processing e presentazioni. Nel '65 Nelson conia il termine hypertext (ipertesto), che è un

testo con collegamenti (link); essi nascono da un progetto di un sistema integrato di gestione della letteratura. Il

sistema, chiamato Xanadu, era basato su server che costruivano documenti virtuali basati su pezzi di testo di

lunghezza arbitraria, e client che permettevano la creazione di link.

La nascita del www: Negli anni '80 c'erano molti ostacoli allo scambio effettivo dei dati. Erano presenti una

vasta varietà di tipi di computer e di sistemi di rete con nessuna caratteristica in comune, e le informazioni erano

di tipo diverso e potevano essere accedute in modi diversi, creando una sensazione di sconforto e inefficienza.

Questo creò terreno fertile all'invenzione del www, che poteva accedere alle informazioni derivanti da

qualunque tipo di sistema in maniera semplice e coerente. Requisiti: essere accessibile via rete; permettere

l'accesso da sistemi eterogenei; essere non centralizzato; fornire accesso a dati esistenti; avere aree private; avere

accesso a dati anche in fase di lavoro. Berners-Lee, che lavorava al Cern, propose un sistema che rispondeva ai

requisiti. L'informazione era posta al centro del modello, indicata con “this document”; il documento era

descritto tramite un ipertesto e descriveva la proposta Mesh, che proponeva un sistema di unificazione dei

CernDoc, ecc; il documento ipertestuale includeva altre informazioni riferite tramite collegamenti ipertestuali.

Berners-Lee e Calliau scrivono il primo browser ipertestuale: www; esso aveva integrato sia browser che editor,

e aveva la possibilità di creare nuovi documenti e modificare quelli esistenti.

Storia del www: Gli anni 1989-90 sono stati un periodo di divulgazione del progetto del www, che nel '91 si è

evoluto a una velocità impressionante. Nel '91 nascono i primi browser e serve multi-piattaforma. Nel '91 il

browser Viola aggiunge la possibilità di vedere anche le immagini. Nel '93 la Ncsa rilascia il browser Mosaic.

Nel '94 viene fondata la Mosaic Communication Corporation che produce il browser Mosaic Netscape. Nel '95

viene rilasciata la prima versione pubblica di Apache; rilasciato Internet Explorer 2. Nel '97 nasce XML, il

linguaggio di markup che diventerà uno dei mattoni fondamentali del web. Nel '98 quinta generazione dei

browser; nasce Mozilla. Dal '98 in poi la ricerca sul web si sposterà verso la famiglia delle tecnologie XML; poi

si svilupperanno quelle tecnologie che renderanno possibile una maggiore integrazione delle varie tecnologie

web.

Il web e internet: Il web è solo uno dei servizi di comunicazione basati su internet. In internet sono essenziali 3

elementi: connessione fisica, comportamenti comuni e servizi. Connessioni fisiche: I cavi sono infrastrutture

passive, mantenute da enti pubblici e compagnie di telecomunicazioni. I cavi hanno differenti capacità: una

singola linea telefonica può trasportare circa 56 kilobytes al secondo; le fibre ottiche migliaia di milioni di bytes

al secondo. I cavi soni tutti interconnessi tra loro. Le regole di comportamento comuni: Per poter dialogare con

gli altri è necessario concordare con loro delle regole di comportamento. I computer devono usare i collegamenti

fisici in accordo a delle regole concordate. Internet trasferisce le informazioni in piccoli pacchetti scambiati tra

computer; i computer sono soggetti a delle regole: devono usare lo stesso protocollo di comunicazione.

Il protocollo più comune utilizzato è il Transmission Control Protocol / Internet Protocol (TCP/IP). Servizi per

tutti: Una volta che si hanno le connessioni fisiche e i protocolli di rete è possibile comunicare con gli altri

computer. Tramite internet possono funzionare diversi servizi: posta, trasferimento file, connessioni a server,

ecc. il www è uno dei servizi, può essere visto come una distribuzione personalizzata delle informazioni.

Come funziona il web: Per usare il web c'è bisogno di un computer, una connessione a internet e un browser.

Quando utilizzi il tuo browser, lui trova e mostra pagine di informazioni. Il ruolo del browser è quello di

interpretare il linguaggio delle pagine web e trasformarlo in testo e immagini che puoi vedere sul tuo schermo. I

documenti sono memorizzati in computer chiamati server, che forniscono i documenti agli utenti che possono

visualizzarli richiedendoli tramite il loro computer, chiamato client. Questo modello è chiamato client/server. I

computer che partecipano a questo meccanismo sono collegati a internet. Quando tramite il browser clicchi su

un iperlink, il tuo computer richiede a un server di restituirgli un documento che ti verrà poi mostrato nel

browser. L'abilità del web di negoziare il formato delle informazioni tra client e server rende possibile poter

scambiare informazioni di qualunque tipo se il client possiede il software appropriato per poter maneggiare

l'informazione ricevuta.

Principi fondamentali del www: I concetti fondamentali sui quali si basa sono: leggibilità universale, ipertesti,

ricercabilità dei documenti, modello client-server, negoziazione del formato. Leggibilità universale: Le

informazioni disponibili sul web possono essere reperite: da ogni tipo di computer, da ogni paese nel mondo

tramite il web, da qualunque persona, tramite un programma di navigazione. Gli ipertesti: Essi danno, tramite

iperlink, la possibilità di saltare da una parte all'altra del testo. Il concetto di ipertesto si è evoluto in ipermedia

(testo, immagini, video, ecc). Entrambi permettono di: navigare tra le informazioni in modo sequenziale; riferire

informazioni dislocate in posizioni diverse. La ricercabilità delle informazioni: I documenti messi a disposizione

tramite il web dovevano essere ricercabili. Il web nasce con le basi per lo sviluppo dei motori di ricerca e questo

è permesso da: reperibilità permanente dei documenti; accessibilità dei documenti da parte di indicizzatori.

Modello client/server: Il web segue il modello client/server dove le informazioni sono: memorizzate sui server

web; raggiungibili tramite un client web. La negoziazione del formato: essa è il meccanismo tramite il quale

insieme alle informazioni che si scambiano sulla rete viene anche inviato il tipo dell'informazione che stiamo

passando attraverso il quale i vari client possono decidere se l'applicazione che devono utilizzare per trattare il

contenuto ricevuto. Le tecnologie e i protocolli fondamentali del www: Il www si basa su alcuni protocolli e

tecnologie fondamentali: HTTP (hypertst trasfer protocol) – serve per scambiare le informazioni; URI (uniforme

resource identifier), URL (uniforme resource locator) – identificare le informazioni; HTML (hypertext markup

language) – rappresentare le informazioni stesse.

Http: Il web utilizza un proprio protocollo per trasferire le informazioni, l'http, che trasmette le proprie

informazioni tramite una connessione TCP/IP. Http fornisce: un sistema veloce di trasferimento dati; un sistema

senza stati; un'architettura estendibile; un sistema per la negoziazione dei differenti tipi di dato trasferiti. Fasi

della comunicazione client/server necessarie per comporre una pagina web: 1) il client richiede al server il testo

del documento all'interno del quale possono esserci riferimenti ad altri oggetti da richiedere al server (immagini,

file esterni, css, ecc); 2) il client ogni qual volta trova nel testo del documento degli oggetti esterni necessari per

visualizzare la pagina le richiede al server con un'altra richiesta http; 3) infine il client mostra all'utente la pagina

composta da tutti gli elementi richiesti e al client è possibile visualizzare la pagina web completa.

Breve storia dell'http: L'http nella sua versione originaria, del 1990, è conosciuto come http 0.9, ora è http 1.1.

Le Request for Comments (RFC) sono una serie di documenti tecnici e note organizzative che trattano di

internet. Esse discutono una serie di aspetti delle reti di computer. Il processo di pubblicazione delle RFC gioca

un ruolo importante nel processo di standardizzazione di internet. L'RFC Editor è il responsabile della

pubblicazione delle RFC.

Http 1.1: Esso è retro compatibile con http/1.0. Il protocollo http fornisce le regole per le interazioni tra client e

server, tra cui: messaggi tra client e server; regole per fare richieste al server; regole per fornire le risposte al

client; metodi per stabilire le connessioni tra client e server; codici di stato. Status code più comuni e utilizzati:

200 – ok, la richiesta è corretta; 404 – not found, la risorsa richiesta non esiste; 301 – moved permanently, la

risorsa non è più disponibile a questo indirizzo; 505 – sever error, si è verificato un errore sul server. Gli status

code si suddividono in categorie: 1xx – messaggi informativi; 2xx – indicano una richiesta soddisfatta; 3xx –

redirezionano il client a un altro indirizzo; 4xx – indicano un errore da parte del client; 5xx – indicano un errore

da parte del server. Richieste multiple: L'http ha la possibilità di fare richieste multiple; diminuisce il “round-trip

time” globale, ossia il tempo che intercorre tra l'inizio della richiesta e la fine della risposta. Connessione

permanente: L'http ha la possibilità di mantenere una connessione permanente; mantenendo la connessione

aperta per farvi transitare tutte le altre connessioni virtuali.

Uri: Le risorse del web sono identificate tramite una URI, che identifica in modo univoco una risorsa sul web.

Esse sono un concetto non legato solo alle risorse web. Composizione delle URI: Esse sono composte dallo

schema e dalla parte specifica dello schema. Esempi di URI sono: schema ftp, schema http, schema mailto. URI

schema: Esse definiscono la metodologia per individuare la risorsa in modo univoco. La <scheme-specific-part>

viene interpretata in funzione di quale schema stiamo utilizzando. URI http: Esse sono così composte: http_URI

= “http:” “/ /” [authority “@”] host [“:” port] [abs_path] → authority, informazioni utili per l'autorizzazione;

host, un nome a dominio o un indirizzo IP; port, un numero intero; abs_path, identificativo per raggiungere la

risorsa sull'host indicato. Struttura ad albero degli URI http: Essi hanno una struttura ad albero gerarchica

delimitata da “/”. Elementi riservati e valori predefiniti nelle URI: Alcuni caratteri nelle URI sono riservati

poiché coprono particolare esigenze. Le URI http hanno dei valori predefiniti: se la porta non è esplicitamente

indicata viene impostata a 80; se abs_path non è esplicitamente indicato viene impostato a /. URL: La URL è un

concetto informale per identificare un tipo di URI. Le URL sono URI che identificano una risorsa tramite la

rappresentazione del metodo di accesso alla risorsa stessa.

Linguaggi di markup: I linguaggi di markup sono stati scelti per rappresentare dei documenti, identificando delle

porzioni di testo tramite dei marcatori (i tag). L'HTML, insieme a XML, è forse il più famoso dei linguaggi di

markup, e trae le sue origini dallo Standard Generalized Markup Language. SGML fu definito come standard nel

1986 e già portava con sé i principi che avrebbero ispirato l'HTML: struttura gerarchica del documento,

separazione tra contenuto e presentazione intellegibile dalle persone e interpretabile dalle macchine. La

presentazione dei contenuti nei linguaggi di markup è di solito lasciata a un linguaggio esterno.

HTML: Esso è un linguaggio di markup nato dall'SGML nel 1990 e ideato da Berners-Lee. SGML tramite una

Document Type Definition (DTD) regolamenta la struttura del documento. L'HTML permette di separare la

struttura del documento dalla presentazione e di effettuare gli iperlink. L'HTML descrive la struttura logica di un

documento, non la sua formattazione, la quale può essere adattata in funzione delle diverse piattaforme

utilizzando diversi font e convenzioni.

Non c'è solo HTML: L'utilizzo dell'HTML ha portato a creare altri linguaggi di markup basati su XML per la

rappresentazione di particolari informazioni. Alcuni es. sono: MathML, SVG, SMIL.

Il W3C: Lo sviluppo del www negli anni è stato guidato dal W3C (World Wide Web Consortium), creato nel '94

per guidare lo sviluppo del www verso il massimo del suo potenziale. Il W3C ha circa 400 organizzazioni

partecipanti sparse in tutto il mondo che collaborano per lo sviluppo del www. Esso ha sviluppato un

meccanismo di standardizzazione delle tecnologie del web basato sulla emissione di raccomandazioni. Esse

devono essere formalmente approvate dai membri; il consenso è raggiunto attraverso un processo di revisioni

successive.

Costruire mappe per cercare in rete: il metodo Sewcom

Introduzione: Cercare informazioni in Internet sta diventando una necessità. Le difficoltà insite nell'uso dei

motori di ricerca e l'utilizzo inconsapevole di approcci cognitivi poco efficienti ne limitano l'efficacia. Un

utilizzo delle mappe concettuali migliora di molto l'accuratezza dei risultati e stimola la capacità di organizzare

in modo coerente il materiale recuperato. Il metodo Sewcom permette di creare mappe concettuali attraverso

l'interazione con i motori di ricerca. La scelta di utilizzare motori di ricerca produce un interessante

ampliamento interdisciplinare del tema trattato.

Studenti come infotective e il bisogno di una information literacy: Più passa il tempo, più cresce la mole di

informazione disponibile in internet tanto che ci si prefigura una crisi generalizzata, information overload. È

necessario già nelle prime classi della scuola, aiutare a costruire quelle abilità di ricerca in rete che

permetteranno agli studenti di selezionare le informazioni e di strutturarle in aggregati significativi di

conoscenza. Per definire quell'insieme di abilità richieste dall'utilizzo delle nuove tecnologie dell'informazione:

l'information literacy. Sono quelle capacità che permettono di riconoscere quando è necessaria una certa

informazione e che mettono in grado la persona di sapere dove e come cercarla, di valutarla e di utilizzarla

efficacemente. Si deve sempre tener conto del problema dell'autorevolezza della fonte, che se da un lato

permette una visione priva di preconcetti, dall'altro può provocare dei pericolosi atteggiamenti relativistici.

Effettuare ricerche in internet con un motore di ricerca non è la stessa cosa che cercare riferimenti bibliografici

on-line utilizzando un Online Access Catalog; l'informazione presente nella rete non è catalogata e non esistono

per ogni documento riferimenti o indici che ne descrivano il contenuto.

Strategie cognitive e stili cognitivi nella ricerca in internet: La costruzione della conoscenza è un punto

irrinunciabile del processo di recupero delle informazioni. Un utente senza alcuna formazione recupera in media

solo un 1/3 dei documenti pertinenti esistenti. Spesso gli studenti preferiscono “navigare” saltando da una

pagina all'altra seguendo i link ipertestuali piuttosto che formalizzare una ricerca in modo analitico utilizzando

gli operatori logici.

Mappe concettuali come ausilio metacognitivo per cercare, costruire e rielaborare la conoscenza in internet:

L'utente tipico viene sopraffatto dalla quantità di risultati; questo accade perché è mancata all'inizio una

formulazione metacognitiva delle sue esigenze informative. Le mappe concettuali sono ormai considerate un

efficace strumento metacognitivo. Organizzare i concetti in strutture visive facilmente riconoscibili rende più

facile il loro recupero ed elaborazione. In media il 95% del tempo viene perso nel cercare tra i link dei

documenti trovati e meno del 5% nel pianificare e scegliere le parole chiave da inserire nei motori di ricerca; gli

utenti non riflettono nemmeno un minuto sulla scelta delle parole. In realtà l'utente dovrebbe dedicare la

maggior parte del tempo alla pianificazione della ricerca per migliorarne l'efficacia. Utilizzando le concept

maps, i tempi salgono al 40% per la pianificazione e al 60% per l'analisi dei documenti, e il tempo medio totale

diminuisce del 30%. Lo sforzo di costruire una sufficiente competenza lessicale permette di stimolare inferenze

sui contesti d'uso e di focalizzare e rifinire di volta in volta la rete lessicale di connessioni semantiche che legano

tra loro le parole di un certo dominio di conoscenza. È importante la conoscenza precedente che si ha

dell'argomento trattato; gli apprendimenti sono significativi solo se vanno a integrarsi compiutamente nel quadro

complessivo delle esperienze del soggetto. Gli esperti di un determinato dominio di conoscenza possiedono

termini più specifici e di conseguenza ne usano meno nell'interrogazione.

Il metodo Sewcom: Emerge la necessità di adottare un metodo visuale/metacognitivo che permetta di cercare,

valutare e integrare la conoscenza scoperta nel web. La ricerca dell'informazione coinvolge due processi legati

tra loro: l'apprendere riguardo il lessico del dominio semantico in questione, e l'apprendere le migliori strategie

per localizzare l'informazione stessa. Il metodo Sewcom (Search the Web with Concept Maps) utilizza

l'approccio metacognitivo-visuale delle mappe concettuali. Esso prevede 4 fasi: 1) brainstorming e contestuale

creazione di una mappa concettuale con parole correlate all'argomento che si vuole cercare online; 2) ri-

strutturazione topologica della mappa sulla base delle aree semantiche individuate e uso dei motori di ricerca

con le parole chiave di ciascuna area. I concetti correlati sono raggruppati assieme in un box, rifacendosi alla

Gestalt per il raggruppamento di stimoli visivi secondo i fattori di: prossimit e similarit; 3) lettura e valutazione

dei documenti trovati e scoperta di nuovi termini da aggiungere alla mappa; eventuale nuova ricerca online per

filtrare e focalizzare meglio il tema usando i nuovi termini come key-words. Un termine può avere differenti

significati; i bibliotecari di solito usano i thesauri, ossia vocabolari controllati che definiscono le modalità d'uso

del termine e le sue relazioni con altri termini; 4) ristrutturazione creativa della mappa e quindi della nuova

conoscenza acquisita, con l'evidenziazione delle interrelazioni fra concetti appartenuti ad aree semantiche

differenti. Un concetto/parola è presentato in maniera trasversale in molti domini di conoscenza differenti.

Riconoscere questa trasversalità significa riuscire a collegare questi domini per costruire rappresentazioni

concettuali alternative. Le mappe concettuali dovrebbero facilitare la comprensione dei nuovi termini e le loro

relazioni in rapporto alla conoscenza già posseduta, soprattutto per la loro efficacia nel ridurre i tempi di

acquisizione. Di solito la consultazione di dati bibliografici viene vista come un processo solitario, ma la

collaborazione fra più persone può migliorare notevolmente il risultato della ricerca. Lavorare in gruppo a caccia

di informazioni permette di disporre di una quantità di riferimenti lessicali e strutture cognitive superiore a

quella a disposizione di un singolo. Il social grouding è quel processo di condivisione di esperienze fra più

persone che permettono loro di capirsi e utilizzare uno stesso lessico a cui viene assegnato un significato

condiviso e accettato da tutti.

Lo studio esplorativo e la sperimentazione preliminare del metodo Sewcom: Il metodo Sewcom è stato

sperimentato durante una serie di seminari su internet per la didattica nel 1999; l'argomento era Galileo e la

scelta del software da utilizzare è caduta su Inspiration. Per limitare gli effetti della dissonanza cognitiva si è

scelto di riformulare l'interrogazione iniziando con un brainstorming, facendo ricorso alle conoscenze pregresse

che ciascun partecipante possedeva dell'argomento. Si trattava, in questo caso, si far associare a Galileo quanti

più termini significativi possibile e di visualizzare le interrelazioni attraverso la mappa concettuale. Il passo

successivo prevedeva la ristrutturazione spaziale dei concetti nella mappa, così da creare delle aree semantiche

specifiche da cui poi scegliere i termini da includere di volta in volta nella stringa di ricerca e focalizzare meglio

ciascun tema. Col lancio delle nuove ricerche si constatava la drastica riduzione dei documenti trovati. È emersa

la stretta correlazione tra il possedere un lessico specifico del dominio di conoscenza che si sta indagando e

l'abilità di restringere la ricerca online. Nella fase finale sono state inserite anche delle immagini in

corrispondenza di nodi per rendere la mappa più accattivante. I termini/concetti sono stati individuati nei vari

documenti recuperati con i motori di ricerca e ritenendoli importanti, è stato inserito il loro indirizzo (link) per

potervi accedere semplicemente con un click. I nuovi termini/concetti devono ora giustificare la loro presenza

tramite dei link ai nodi nella rete concettuale pre-esistente: ciò permette una ristrutturazione creativa della

mappa. La trasversalità dei saperi è evidenziata visualmente in modo efficace e naturale e favorisce una

progettazione didattica attenta agli approcci multidisciplinari. La sfida sarà quella di scoprire nuovi modi di

organizzare la conoscenza e considerare la ricerca dell'informazione come parte del processo di apprendimento.

L'HTML

Introduzione: HTML significa Hyper Text Markup Language; i documenti html sono file plain-text, che possono

essere creati usando un qualsiasi text editor e possono essere visualizzati con browser www. L'html è un

linguaggio interpretato, quindi può essere mostrato in modo diverso in base ai browser. Esistono anche editor

visuali. Possono essere locali (disco o server http locale) o pubblici (server http con indirizzo pubblico).

Elementi: Un elemento è una componente della struttura di un documento di testo; per denotarli di usano i tag.

Tag html: Un tag è rappresentato con “<” nome tag “>”; sono normalmente in numero pari per poter

rappresentare l'inizio e la fine di un'istruzione. Un end-tag presenta lo slash </nome>. Alcuni elementi possono

includere un attributo. L'html non è case sensitive, maiuscolo e minuscolo non fa differenza. Non tutti i tag sono

supportati dai browser www. La presenza dei tag <html>, <head>, <title> e <body> (con i loro corrispondenti

end-tags) è sufficiente a identificare un documento come html; essi sono infatti fondamentali e devono essere

sempre presenti. Il tag <html> indica che il file contiene informazioni codificate in html; al suo interno devono

essere sempre presenti due parti: header e body. Il tag <head> identifica la prima parte del documento html, che

contiene almeno il titolo; può contenere anche altre informazioni per i motori di ricerca. Il tag <title> contiene il

titolo del documento, di solito in alto, ed è anche quello che è mostrato su qualche hotlist o lista bookmark – è

necessario scegliere qualcosa di descrittivo, unico e breve. Il tag <body> è la seconda e più grossa parte del

documento html; racchiude il contenuto della pagina ed è mostrato all'interno dell'area testo; contiene elementi e

quindi altri tag.

Il collegamento ipertestuale: L'html permette il collegamento di un testo e/p un'immagine con un altro

documento o una sezione di questo (hypertext link). Un browser evidenzia il testo per indicare la presenza di

hypertext link. Il tag utilizzato per definire un hypertext link è <a> (= anchor). Si definisce lo start-tag

specificando l'URI del documento al quale vogliamo collegarci, tramite l'attributo HREF=”resource”; si

specifica il testo che servirà da hypertext link; si definisce l'end-tag.

HTML + HTTP = WEB: Quando le pagine vengono erogate da un server http, si parla di servizi web.

Inserire un'immagine: In un ipertesto si può inserire un'immagine specificando un file che contiene l'immagine;

tag <img> : <img src= “url”>. I due formati riconosciuti dai browser sono .gif e .jpeg. È opportuno dichiarare

l'ingombro del grafico, es: <img src= “url” height= “100” widht= “387”>.

Inserire una tabella: La tabella è inserita in un ipertesto col tag <table>.

Inserire un frame: È possibile suddividere lo schermo del browser in più riquadri (frame) e all'interno di ognuno

di essi inserire un documento html separato; il tag <frameset> sostituisce <body>.

Inserire un filmato: Per inserire un suono o un filmato: <embed src= “nome_file.estensione”>; se l'estensione

del file è .mid, .wav o .rmi, è un suono, se è .mpeg o .avi, è un filmato.

Pubblicare sul web: Tutte le pagine e i contenuti multimediali creati dal client con l'html o Dreamweaver devono

essere contenute in un server. Gli altri utenti “navigando” accedono al server scaricando le pagine web. Si può

acquistare uno spazio server gratuito (virgilio.it, yahoo.it, freeonline.it, ecc) o a pagamento (register.it, tol.it,

ecc); si può registrare un dominio (register.it, virtualsite.it, ecc). La connessione può essere gratuita: modem

56k(tin.it, tiscali.it. ecc) o a pagamento: aDSL (telecom, tele2, ecc), fibra ottica (fastweb, ecc).

I motori di ricerca

Un'informazione disordinata del web pone di fronte a due tipi di problemi: reperibilità e affidabilità. I motori

corrono attraverso il www catalogando tutte le pagine che incontrano. In una apposita casella è possibile digitare

uno o più termini chiave e chiedere al programma di effettuare una ricerca, al termine della quale compariranno

tutti i siti contenenti quella parola/e. La ricerca attraverso un motore di ricerca per termini è comoda nel caso di

nomi propri o termini specifici (google, altavista, ecc). La ricerca per argomenti si svolge scegliendo tra le

categorie disponibili; la ricerca sistematica avviene su cataloghi ragionati di risorse, suddivisi e organizzati, le

web directories. Un catalogo ragionato così si basa su una sorta di “albero del sapere” che bisogna percorrere

partendo da categorizzazioni più generali per arrivare a quelle più specifiche (yahoo.it, virgilio.it, ecc).

Criteri di ricerca: Dobbiamo chiederci cosa vogliamo trovare e che tipo di informazione vogliamo trovare.

Troppe info è come non averne nessuna. Informazione strutturata: attraverso internet sono disponibili banche

dati specializzate, contenenti informazioni strutturate (es. catalogo biblioteca, atlanti, ecc). Informazione libera:

istituzioni, privati e aziende hanno ritenuto utile rendere accessibili informazioni attraverso pagine web.

L'informazione può essere: ordinata – quella di una banca dati è più puntuale e affidabile, ma non è integrata

nella ragnatela del www; disordinata – di www è più difficile da valutare dal punto di vista dell'affidabilità.

Operatori logici: AND (e), OR (o), NOT (non). Altri parametri: NEAR (in mezzo a due termini impone la

presenza di entrambi, più restrittivo di AND). DOMAIN (delimita la ricerca a un dominio preciso, sigle

nazionali come .it, .fr, .uk, domini commeriali con .com, siti delle università con .edu, organizzazioni senza

scopo di lucro con .org). HOST (per cercare le pagine contenute in un determinato sito, serve per trovare un


ACQUISTATO

1 volte

PAGINE

14

PESO

169.50 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Esame: Telematica
Corso di laurea: Corso di laurea in progettazione e gestione di eventi e imprese dell'arte e dello spettacolo (PRATO)
SSD:
Università: Firenze - Unifi
A.A.: 2015-2016

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher francesca.serani di informazioni apprese con la frequenza delle lezioni di Telematica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Mucchi Lorenzo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!