Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

computer. Si deve integrare la componente della comunicazione a tutti i livelli: tra operatore e macchina, tra

macchine e tra uomini. Siamo di fronte a una macchina nuova rispetto a quella progettata nel 1945 da von

Neumann, anche se ancora governata da un processore, una memoria e un insieme di istruzioni di

programmazione. Nella Mt l’operatore deve essere sostituito da una tavola di istruzioni; secondo questo

modello, che chiamiamo cibernetico, la macchina è invece partecipe e complice delle sue attività,

sostituendo l’umano solo nelle componenti automatiche del compito e supportandolo nella presa di

decisioni, senza mai sostituirlo. È proprio l’umano a integrare nella macchina la componente analogica e

per farlo è necessario costruire degli strumenti input-output che facilitino la comunicazione con la

macchina. È proprio in questo contesto che vengono inventati alcuni dispositivi che sono tutt’ora utili alla

cosiddetta human-machine interaction, come il mouse, le icone nell’interfaccia, il lavoro di gruppo, gli

schermi adatti alle applicazioni grafiche…

1.7 - “Information processing” e biblioteche

•• Uno dei campi nei quali i computer secondo Licklider avrebbero un ruolo speciale è la biblioteca. Qui la

digitalizzazione massiccia della conoscenza potrebbe diventare uno strumento nuovo ed essenziale per la

consultazione dei materiali. La disponibilità delle macchine permetterebbe a tutti di raggiungere i contenuti

digitali consentendo così un accesso diretto, veloce e completo allo scibile umano. L’uso collettivo di una

unica macchina costruisce uno spirito di gruppo e di collaborazione tra programmatori ponendo le basi per

quella cultura della condivisione e del rispetto del lavoro di ciascuno, alla base dello sviluppo di Internet,

nato come uno dei tanti progetti collettivi, che punta alla distribuzione delle informazioni come un bene

imprescindibile e caratterizzante delle nuove tecnologie. Questo è il modello del time-sharing, e internet

usa ancora questa architettura, essendo basata sul modello client-server, una architettura basata sulla

disponibilità limitata di processori e memoria. Un altro ostacolo alla realizzazione della simbiosi uomo-

macchina è il linguaggio usato. I computer devono essere guidati in modo deciso e dettagliato attraverso la

procedura da compiere. Si vuole creare un sistema che favorisce interazione con la macchina: informazioni

separate che possono essere richiamate all’occorrenza dall’operatore citando semplicemente il loro nome.

I dispositivi di input-output non permettono l’interazione tra esseri umani e macchine. L’Ipto finanzia

soprattutto questi progetti. Allora crea degli strumenti esterni nel 1960. Realizza un display da tavolo

capace di mostrare risultati e in grado di controllare l’attività della macchina.

1.8 - Il progetto della rete intergalattica

•• Il progetto di Ipto del 1963 consiste nella costruzione di una rete di computer interconnessi e inter-

comunicanti. Sarebbe preferibile standardizzare almeno le pratiche di archiviazione di dati e informazioni. Il

computer non è più percepito come un elemento di un complesso si stima di comunicazione (come credeva

Wiener). Pur avendo lasciato la direzione dell’opto nel 1964, l’influenza di Licklider continua a esercitarsi

sull’orlo del precipizio. Taylor, che rifiuta ogni specialisti e segue un percorso di studi altamente

transdisciplinare, viene considerato uno dei migliori manager tecnologici mai esistiti in quegli anni. Taylor

dirige il Computer Systems Laboratory (Csl). Nel 1966 diventa direttore dell’opto e capisce che, tramite

intuizione di Licklider, mi dice “bisogno di spostarsi di sedia”. Computer, si immagina di connettere tutti. Si

deve creare una rete di computer che parli una lingua comune per tutti, nella quale tutti possono parlare

una lingua comune per tutto.

1.9 - Il computer come strumento di comunicazione

•• Licklider e Taylor vogliono progettare un dispositivo per l’interazione e non solo per il trasferimento di

informazione. Bush e Wiener hanno introdotto l’idea della comunicazione non come un semplice scorrere

di dati codificati che devono raggiungere una destinazione per essere decodificati (modello del codice), ma

comprese anche la funzione di risposta a quel flusso di dati (feedback), un meccanismo interattivo e

interconnesso che comprende una non scontata relazione tra i due soggetti dello scambio. Comunicare è

più che inviare e ricevere. Secondo Licklider e Taylor saremo in grado di interagire con la ricchezza

dell’informazione come partecipanti attivi, portando qualcosa attraverso l’interazione e non semplicemente

ricevendone qualcosa perché siamo in connessione con questa. Le macchine possono aumentare l’aspetto

più creativo della comunicazione umana. Licklider e Taylor si domandano se essere online sia un privilegio

o un diritto (digital divide).

1.10 - Nascita di Arpanet

•• Nel 1966 Taylor ottiene dal direttore dell’Arpa un primo finanziamento di un milione di dollari per la

realizzazione dell’infrastruttura della rete Arpanet. Si crea il packet-switching, sistema che istrada i

pacchetti di informazione uno alla volta, permettendo a ognuno di seguire un proprio percorso autonomo

dagli altri. Sull’architettura di rete, esistono in ogni nodo macchine dedicate alla comunicazione e alla

gestione del traffico che non tengono traccia dei pacchetti in transito. Il progetto originario prevedeva

invece la creazione di un centro della rete unico che avrebbe avuto il controllo di tutto il passaggio di dati

(in questo modo la rete non avrebbe potuto crescere così in fretta). La scelta della distribuzione del

controllo su tutti i nodi non ha solo un impatto sullo schema architettonico, ma anche sulla concezione

sociale e politica della rete: nessuno può organizzare la rete a proprio piacimento, ma tutti contribuiscono al

suo governo. Nel 1967 vengono individuati i primi nodi da connettere: tutti centri di ricerca universitari (il

primo quello dell’University of California a Los Angeles). Il primo messaggio è stato inviato nel 1969. La

comunità “intergalattica” si riunisce e lavora collettivamente al miglioramento degli strumenti comuni, e

nessuno lo fa per un tornaconto personale se non per la reputazione che viene costruita tra pari. L’aspetto

commerciale è totalmente assente. Engelbart inventa l’idea della tecnologia come aumento delle capacità

umane. Engelbart inventa il mouse, le finestre, le icone e l’idea del groupware (applicazioni che facilitano il

lavoro di gruppo, tra le quali calendari condivisi, riunioni virtuali…). Taylor nel 1973 costruisce il primo

prototipo del personal computer, Alto, da cui prendono ispirazione sia Apple sia Microsoft. Sia il computer

“amichevole” per uso personale sia la rete Arpanet nascono dalla stessa cultura tecnologica orientata

all’utente e all’aumento delle sue capacità, piuttosto che alla sua sostituzione con macchine autosufficienti.

Insomma, prima dell’umanista digitale è stato necessario costruire una macchina umanistica.

1.11 - Il www: un sistema autore nel cuore d’Europa

•• Tim Berners-Lee presenta il progetto per il www al Cern di Ginevra con l’obiettivo di semplificare il

passaggio di informazioni tra ricercatori del Cern per evitare di duplicare inutilmente gli sforzi nel centro di

ricerca. Berners-Lee riconosce che il Cern fosse l’ambiente più naturale per inventare il web, perché vi è

necessità di connettere scienziati provenienti da tutte le parti del mondo, e che adottano i più diversi sistemi

hardware e software. Internet c’è già, i protocolli per la trasmissione e l’istradamento dei dati anche (Tcp/Ip

- Transfer Control Protocol/Internet Protocol), così come Dns (Domain Name System), che si occupa di

definire uniformemente le diverse risorse presenti su Internet associando a ogni server connesso un

numero unico che lo identifichi uniformemente; c’è già anche l’ipertestualità, inventata da Ted Nelson,

studente di sociologia e filosofia che nel 1960 deve scrivere un saggio filosofico in cui è necessario un

sistema che permetta di connettere attraverso i link i diversi materiali che lo compongono. Per il web

secondo Berners-Lee è fondamentale la comunità, che deve contenere le più diverse competenze in

quanto per definizione transdisciplinare. Per far dialogare i computer tra loro bastano poche regole comuni,

di protocollo. Protocolli necessari per il web sono Uri (identificatori universali), Http (protocollo di

trasferiemnto) e Html (linguaggio). Dall’Uri si è passati all’Url (localizzatore uniforme delle risorse), che non

definisce universalmente la risorsa, ma ne identifica la posizione in modo uniforme e univoco. Nel 1993 il

Cern si impegna a non reclamare le royalties per i protocolli tecnologici sviluppati da Berners-Lee per far

funzionare il web. C’è tutto, ma manca un Browser, un visualizzatore di pagine ipertestuali indipendente

dalla piattaforma. Sempre nel 1993 il Ncsa dell’Università dell’Illinois rende disponibile un browser adatto e

disponibile per tutte le piattaforme: Mosaic. Adesso manca solo il governo. Nel 1994 Berners-Lee accetta di

trasferirsi al Mio di Princeton negli Usa per ffondare una istituzione internazionale di governo del web, il

World Wide Web Consortium (W3C). Attualmente Berners-Lee ha creato la Www Foundation per studiare

le condizioni di diversità dalle quali è possibile accedere al web.

1.12 - Il presente del web: Web 2.0?

•• Il web secondo Berners-Lee è un qualcosa di incompiuto. Gli obiettivi del web 2.0 sono: puntare

sull’offerta di servizi e non di software; considerare il web una architettura di partecipazione; elaborare

strategie per lo sfruttamento dell’intelligenza collettiva. Si tratta di usare il contenuto prodotto dagli utenti in

diverse forme, organizzandolo in maniera per posta. Il web 2.0 è insomma il bene comune sotto forma

di contenuti digitali messi al servizio di business privati. È un capitalismo 2.0. Con il web 2.0 nascono

nuovi mediatori che guadagnano solo per trovarsi in una certa posizione di organizzatori dei contenuti

collettivi. Il web 2.0 è il regno dell’amatorialità. Non ci sono professionisti e, quando lo sono, vengono

trattati come se non lo fossero. Nel web 2.0 nascono software sociali per accedere, organizzare e

categorizzare le risorse del web (come Wikipedia). Nel web 2.0 gli utenti possono fornire implicitamente

dati grazie alle descrizioni delle loro attività: Amazon registra i comportamenti dei clienti e li usa per fornire

ai potenziali nuovi utenti consigli su articoli di loro eventuale interesse, basandosi sulle preferenze di chi li

ha preceduti. Gli utenti a volte contribuiscono anche attivamente alla costruzione delle preferenze,

scrivendo recensioni e fornendo valutazioni esplicite su libri e altri articoli. Questi strumenti sono

problematici perché gli utenti non sanno di essere messi al “servizio” della comunità, spesso a fini di lucro.

1.13 - “Open data” e “Open access”: il web desiderabile nel futuro

•• Il movimento dell’open data vuole rendere disponibili e aperti i dati in tutti i campi in cui siano utilizzabili.

Esistono già alcune banche dati collettive. Si tratta di produrre socialmente contenuti di qualità e di metterli

a disposizione di tutti senza scopo di lucro. Ogni contenuto deve essere organizzato con tag per essere

facilmente rintracciato. L’e-governement 2.0 vuole trasparenza e collaborazione delle pubbliche

amministrazioni in relazione con i cittadini. Il movimento dell’open data è incluso in quello dell’open access:

la letteratura sull’open access è digitale, online, priva di costi e priva di restrizioni dovute al copyright e alle

licenze d’uso: la conoscenza deve essere accessibile a tutti senza restrizioni. Gli archivi pubblici sono

un'altra componente dell’open access. Tutte le attività sono rette da content management system,

strumenti per la gestione e l’organizzazione dei contenuti digitali. La grande sfida del web del futuro

consiste nel non tradire lo spirito di condivisione della conoscenza, considerata come un bene pubblico.

4 - Cercare e organizzare

4.1 - Il paradosso della ricerca secondo Platone

•• Fin dall’antichità, vi è difficoltà nell’organizzare e nell’accedere alle informazioni al fine di creare nuova

conoscenza. Socrate espone il paradosso della ricerca: non è possibile, secondo Menone, cercare né

quello che si sa né quello che non si sa. Quello che si sa perché conoscendolo non c’è bisogno di cercarlo;

quello che non si sa perché neanche si sa cosa si cerca. Socrate risolve il paradosso ipotizzando una pre-

comprensione della nostra scoperta futura, dovuta alla precedente esperienza nell’Iperuranio nella quale

abbiamo potuto sperimentare l’esistenza delle idee, che ci permette di comprendere che cosa cerchiamo,

anche se ancora non lo conosciamo a livello conscio: nonostante la nostra condizione pre-umana sia del

tutto dimenticata, questa ci guiderebbe attraverso la memoria di un vago ricordo delle idee che ci

permetterebbe di riconoscere e ricollegare le nostre scoperte a questa conoscenza originaria. Quando

produciamo nuova conoscenza, non lo facciamo partendo dal nulla, ma interpretiamo i dati secondo un

modello di riferimento pregiudiziale che ci permette di dare un senso all’esperienza del fenomeno che

stiamo cercando di comprendere. Cartesio crede che quando cerchiamo una nuova conoscenza lo

facciamo a partire da una idea chiara di che cosa dobbiamo trovare, anche se ne ignoriamo ancora i

dettagli: il processo cognitivo non procede al buio ma anzi è il prodotto di quello che sappiamo già,

sommato alle nostre ipotesi su quello che ancora ignoriamo. La scelta di rappresentazione e

organizzazione della conoscenza adottata dai motori di ricerca per reperire le informazioni non è sempre

legata alla natura associativa e distribuita.

4.2 - La topologia del web: i nodi non sono tutti uguali

•• Arpanet è stata creata per evitare l’isolamento degli scienziati e favorire lo scambio e la condivisione

delle risorse disponibili sia in termini di tecnologia sia di sapere. Solo più tardi il web servirà come

strumento per accrescere le possibilità di interazione tra uomo e macchina. Da un progetto di mappatura

della rete si scoperta la totale assenza di democrazia, equità e valori egualitari nel web. Il web si comporta

come un ecosistema dinamico nel quale le pagine continuamente nascono, cambiano indirizzo, muoiono, si

spostano, si modificano seguendo una distribuzione che segue delle leggi di potenza non scritte. Nel web

pochi nodi hanno moltissimi collegamenti e la maggior parte dei nodi è solo poco connessa con il resto del

web. Solo alcuni dei “continenti” del web sono facili da navigare, mentre la maggior parte dei nodi

rimangono nascosti per l’utente: il web non garantisce quindi l’accesso totale a tutte le informazioni

pubblicate online. Le reti sociali sono dominate da alcuni nodi iperconnessi (gli hubs).

4.3 - Il ruolo dei “search engines” nella ricerca di informazioni sul web

•• Circa la metà degli americani consulta i motori di ricerca ogni giorno (nel 2008). L’uso dei motori di

ricerca riguarda la parte più ricca, più colta, più tecnologica e più giovane della popolazione web. I motori di

ricerca rappresentano il filtro del materiale presente sul web. Google ha come obiettivo dichiarato quello di

organizzare l’informazione mondiale. Gli utenti considerano efficienti i risultati dei motori di ricerca. I filtri del

web stanno avendo un ruolo sempre maggiore nel determinare la sopravvivenza, la diffusione e la visibilità

delle informazioni in rete. Ogni motore di ricerca può garantire una copertura poco parziale delle pagine

web. I motori di ricerca svolgono un ruolo di mediazione tra la massa di informazione disponibile (ingestibile

per gli esseri umani) e le risposte rilevanti alle loro domande espresse in forma di quei (interrogazioni,

parole chiave). I motori di ricerca tutelano l’utente dall’eccesso informativo presentando una lista di risultati

che il più delle volte riesce a soddisfare la sua curiosità. È impossibile misurare l’efficienza di un motore,

sia perché non ci sono metriche adatte per fare questa valutazione sia perché non esiste uno strumento

alternativo che ne possa valutare i risultati. Una risorsa che non viene menzionata nelle pagine dei risultati

di ricerca è destinata a rimanere per sempre ignota e questo vale anche per quei documenti che, anche se

presenti nella lista dei risultati proposti da motore, si trovano nelle pagine successive.

4.4 - Il funzionamento dei motori di ricerca

•• I crawlers sono agenti software che vengono inviati dai motori di ricerca per esplorare il web. È su di loro

che il motore conta per acquisire le informazioni presenti nelle pagine web. Visitano le pagine di cui

possiedono le Url e si spostano da una pagina all’altra seguendo i link che trovano sulla loro strada.

Siccome possono entrare nelle pagine solo usando l’accesso fornito da altre pagine con gli inbound links,

questi frequentano soprattutto le porzioni del web meglio connesse tra loro e hanno molte difficoltà ad

addentrarsi in zone impervie del web. Esistono alcune parti della rete che sono loro vietate. Esistono poi

delle pagine inaccessibili ai crawlers per motivi tecnici (il tipo di hosting delle pagine non sopporterebbe la

sollecitazione dovuta all’interrogazione meccanica, causando il depila of service per tutti i visitatori) o per la

policy aziendale. Di questo tipo sono le pagine generate dinamicamente (ottenute in risposte alle nostre


ACQUISTATO

8 volte

PAGINE

8

PESO

113.92 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze della comunicazione
SSD:
A.A.: 2017-2018

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher simone.scacchetti di informazioni apprese con la frequenza delle lezioni di Epistemologia dei nuovi media e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Roma Tre - Uniroma3 o del prof Numerico Teresa.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Epistemologia dei nuovi media

Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato L'abisso dei social media - Nuove reti oltre l'economia dei like, Lovink
Appunto
Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato Big Data - Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, Schönberger e Cukier
Appunto
Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato L'abisso dei social media - Nuove reti oltre l'economia dei like, Lovink
Appunto
Riassunti per esame di logica + esercizi, prof. Abrusci, Università Roma tre,
Appunto