Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

CAP.1 DALLO SPAZIO FISICO ALLO SPAZIO VIRTUALE

Il 20 aprile 1939, David Sarnoff, presidente della Radio Corporation of America (RCA) vive uno dei giorni più

importanti della sua vita: dinanzi a lui, sul piccolo schermo di un nuovo apparecchio di ricezione, viene

trasmessa l’immagine del presidente Roosvelt mentre pronuncia il suo discorso di benvenuto alla fiera

mondiale di New York. All’interno del padiglione della RCA che dall’alto ha la forma di una valvola, avviene

un evento senza precedenti, quell’insolito apparecchio, presentato per la prima volta, prende il nome di

television.

Il NY times: La televisione non potrà mai essere un serio contendente della radio, perché la gente deve

stare seduta a tenere gli occhi incollati a uno schermo. La famiglia media americana non ha tempo per

queste cose.

Cose simili erano state dette anche per la radio nel 1915 sempre a Sarnoff, il qual però dopo aver acquisito

la Marconi Company e aver fondato la RCA, vide approvata la sua idea e successivamente ben accolta

anche dal grande pubblico: la prima radiodiffusione nel 1921 contò 300000 ascoltatori. Nei tre anni a

seguire “la scatola musicale senza fili” chiamata radiola divenne un enorme successo di mercato, vendendo

per 83,5 milioni di dollari.

Se volessimo divertirci a tracciare i diversi stadi dell’evoluzione delle nuove tecnologie inventate

dall’umanità in un grafico che rappresenti il tempo intercorso dalla nascita di un nuovo medium fino ai

(inserisci grafico).

giorni nostri si otterrebbe un grafico con una parabola discendente

Trasformazioni che l’uomo un tempo viveva nell’arco di migliaia di anni, oggi sono vissute nell’arco di una

sola generazione. Sfugge, in pratica, il senso della trasformazione.

1.1 Il secolo elettrico

Lo storico Hobsbawn definisce questo periodo “il secolo breve” proprio a sottolineare l’accelerazione

impressa dalla storia agli eventi e le trasformazioni della vita degli uomini. Un’incredibile accelerazione di

eventi.

1.1.1

Durante la guerra fredda vi fu un grosso sviluppo delle tecnologie per raggiungere il cosmo dovuto alla

competizione tra USA e URSS. Quando Neil Amstrong sta per toccare il suolo lunare, l’entusiasmo con cui i

mass-media accompagnano lo storico evento diffonde un senso di grande fiducia nella scienza e nelle

tecniche moderne. Con gli occhi incollati allo schermo milioni di persone seguono in diretta il grande

momento prefigurandosi già, nel futuro, di viaggiare o andare ad abitare in nuovi spazi siderali.

Dalla base di Houston qualcuno informa Micheal Collins, l’astronauta che era rimasto a volteggiare nel

modulo di comando in attesa del rientro dei suoi compagni, che “probabilmente è l’unica persona a non

vedere ciò che sta accadendo in televisione”. Quel giorno Collins doveva realizzare che tutti gli abitanti della

Terra erano sulla Luna, tranne lui. Non è necessario sviluppare mezzi di trasporto sempre più potenti,

sempre più efficienti per ridurre le distanza, perché i nuovi media elettrici ti conducono dove vuoi tu,

sempre, e in tempo reale.

L’elettrificazione era divenuta l’energia motrice della nuove era industriale e aveva trasformato le città e le

abitazioni nei terminali di un’unica grande rete, ponendo così le premesse per la penetrazione dei media

nello spazio domestico.

Nessuna innovazione tecnologica fu così determinante ed essenziale, nell’ambito dello sviluppo dei mezzi di

comunicazione, come il controllo che esercitò l’uomo sull’elettricità.

I nuovi media elettrici sarebbero diventati gli amplificatori della comunicazione politica. Comincia di fatto, a

dischiudesi una nuova ere in cui allo spazio fisico si sostituisce lo spazio virtuale e prende sempre più piede

la persuasione inconsapevole che tutto quello che vedi nello schermo è reale. David Sarnoff nel 1940

affermò che la televisione era “destinata a fornire una conoscenza più grande a un numero di persone più

ampio. In realtà la televisione di oggi è diventata un atto di consumo, orientata più a sostenere l’industria

che essa stessa ha edificato e gli interessi economici e politici che gravano attorno a questa, che non

primariamente occupata a promuovere la crescita sociale.

1.1.2 Lo spazio digitale

Gli ampi spazi che i nuovi media digitali aprirono alla risposta individuale del destinatario, per molti avrebbe

significato l’inizio inevitabile dell’agonia dei mezzi di comunicazione di massa, determinando la fine del

conformismo culturale e del consumo passivo, favorendo la libera circolazione della conoscenza; altri

intravedono anche la riduzione della distanza tra paesi ricchi e poveri e il crollo dell’egemonia degli USA.

Oggi non possiamo che assistere al crollo di qualsiasi spinta ideale si sia sviluppata attorno ai nuovi mezzi di

comunicazione al loro nascere. Oggi solo il 6% della popolazione mondiale ha accesso a internet. La

proclamata democrazia di internet ha quindi generato il digital divide, ossia il divario digitale. Tale divario

viene determinato dalle disparità derivanti dalle diverse soglie di libertà di controllo e di accesso al mezzo.

1.2 Società dell’informazione e determinismo tecnologico

La profonda accelerazione che il secolo elettrico innesta sul progresso delle tecnologie della comunicazione

riduce drasticamente il tempo e le distanze. Nascono nuove definizioni quali: l’era dell’informazione, nella

quale l’informazione sarebbe il bene in assoluto più prezioso, in grado di determinare le sorti dell’economia,

era della comunicazione, in cui la rete di connessione tra i terminali del globo determinerebbe l’annullamento

dei confini nazionali; l’era della digitalizzazione, secondo cui tutti gli elementi della nostra realtà sarebbero

convertibili secondo un unico codice binario.

1.2.1 Il determinismo tecnologico

La tesi principale del determinismo tecnologico sostiene che la tecnologia segue una propria evoluzione

autonoma, indipendente dall’intervento umano, sociale, storico. In tal senso si stabilirebbe una relazione a

senso unico tra la tecnologia e la società, nell’ambito della quale l’ordine verrebbe significativamente

influenzato dal progresso della tecnologia e non viceversa. La seconda fondamentale tesi del determinismo

tecnologico è che, in virtù di questo meccanismo di determinazione operato dalla tecnologia sulla storia

dell’uomo, le innovazioni tecnologiche diventano necessariamente il punto di riferimento più importante

per l’analisi dei cambiamenti che avvengono in ambito socio-culturale.

In realtà, non sempre l’introduzione di nuove tecnologie si è riflessa contemporaneamente in cambiamenti

che hanno coinvolto anche l’ambito socio-culturale.

La tecnologia, pertanto, non è il punto cardine attorno al quale ruota la comunicazione, ma quest’ultima si

genera dal rapporto dialettico che sussiste anche con altri fattori: le convenzioni culturali, la spinta

economica, l’evoluzione storica. Se realmente la tecnologia potesse influire sulle dinamiche sociali e

culturali, oggi, in rapporto alle nuove tecnologie di comunicazione, questo potere non dovrebbe ridursi a

una ristretta elite di cybernauti che chiudono gli occhi di fronte al divario tecnologico che li separa da tutto

il resto del pianeta

1.2.2 La società dell’informazione

Daniel Bell, sociologo, fu il primo a formulare il concetto di società post-industriale, intendendo definire

un’epoca che da sistema economico basato sulla produzione di beni, ossia merci, si muove verso un sistema

basato sulla produzione di beni culturali, vale a dire sapere.

Il concetto di società dell’informazione sposta al centro del nuovo sistema di produzione non il sapere

codificato, ma il trasferimento delle informazioni che si tradurrà nella definizione di autostrade

dell’informazione, come la piattaforma ideale dove far convergere lo sviluppo economico delle

telecomunicazioni, dei mass media e dell’informatica.

Senza voler entrare nell’ambito di un dibattito sul processo di globalizzazione, ci limiteremo ad

approfondire qui alcune criticità maggiormente collegate all’ambito della nostra indagine.

La velocità con cui si è sviluppata l’era dell’informazione ha fatto sì che il reperimento, la produzione e la

distribuzione dell’informazione siano diventati oggi assai più immediati di quanto non lo siano mai stati

prima. Questo, ovviamente, ha ridotto in maniera esponenziale quella naturale selezione dei dati che

permetteva prima di separare le informazioni più importanti da quelle meno rilevanti.

Il risultato è che oggi l’era dell’informazione ha prodotto un’inconcepibile massa di informazioni

frammentarie, casuali e spesso non consistenti, una sovrabbondanza di informazioni a bassa qualità che

viene chiamata overload information. Diventa complesso ricercare informazioni e selezionarle secondo un

senso logico. Il problema oggi non verte sulla distribuzione e la diffusione delle informazioni, quanto nel

permettere a queste di diventare conoscenza. Il computer si ferma a un’analisi testuale delle informazioni,

non procede a quella semantica. Può rispondere a domande del tipo chi, cosa, dove, quando ma non a

domande del tipo come e perché e diventa assai problematico definire le regole della trasformazione: il

messaggio può assumere diversi significati sulla base di diversi destinatari e contesti d’uso.

1.3 Il ruolo dei nuovi media

La profonda accelerazione dell’innovazione tecnologica e dell’attività economica impressa da questo

periodo, per dirla come Rifkin, mette in discussione la nozione stessa di proprietà che caratterizzava il

periodo industriale. Ci troviamo, quindi, di fatto in un periodo di transazione in cui al concetto di bene

materiale si sostituisce gradualmente quello di bene culturale, al concetto di distribuzione quello di

comunicazione, al concetto di consumo quello di utilizzo.

Sui nuovi media si incrociano le variabili sociali, economiche e ideali di una società in trasformazione che

vanno a definire progressivamente nuove pratiche comunicative, nuovi linguaggi e nuove forme di gestione

e distribuzione della conoscenza.

Questo ci fa comprendere che le tecnologie non determinano incondizionatamente la vita dell’uomo, ma

fanno parte integrante della sua realtà e con lei si evolvono in rapporto dialettico.

In tal senso i nuovi media rimangono degli strumenti in continua trasformazione, da cui emerge significativa

la loro costante condizione di novità e non dei riferimenti immutabili: nascono nuovi prodotti e servizi che

definiscono nuovi modelli di comunicazione e di consumo che vengono abbandonati con la stessa rapidità

con cui nascono.

CAP.2 DINAMICA EVOLUTIVA DEI NUOVI MEDIA

Difficilmente una trasformazione tecnologica è veramente una rivoluzione perché, il più delle volte, il

processo tecnologico segue un percorso più evolutivo che integra le conoscenze di tecnologie già sviluppate

in precedenza. La stessa “rivoluzione della stampa” di Gutenberg non fu propriamente una rivoluzione dei

mezzi di comunicazione. La stampa è, dunque, una rivoluzione in senso tecnologico, nella misura in cui

accelera la riproduzione della scrittura mediante l’uso del torchio tipografico, ma non ridefinisce come

medium, le proprietà già apportate dalla scrittura. Al contrario, la scrittura fu un’innovazione tecnologica

sostanziale: come avremo modo di analizzare meglio in seguito, essa ridefinisce lo spazio e il tempo della

comunicazione, estendendo il messaggio lungo l’asse diacronico della linearità e della uni direzionalità. Una

rivoluzione che influirà in maniera determinante sul pensiero umano e sull’organizzazione sociale

dell’uomo. Non esistono rivoluzioni dei mezzi di comunicazione in senso generale, ma esistono rivoluzioni

che ridefiniscono la struttura spazio temporale del processo comunicativo.

Spazio e tempo diventano le coordinate principali di riferimento per definire la portata di innovazione di un

mezzo di comunicazione e stabilire di conseguenza in che misura esso possa anche, in definitiva, essere o

meno un nuovo medium. Le innovazioni tecnologiche che maggiormente hanno influito sulla struttura del

tempo e dello spazio dei processi comunicazione: la scrittura alfabetica, la radiodiffusione e il digitale.

2.1 La tecnologia dell’alfabeto

Fino alla fine dell’800 la lingua parlata, la scrittura, la rappresentazione di suoni e immagini non rendeva

necessario un dispositivo di recezione del messaggio, richiedevano solo competenze di decodifica già

direttamente connaturate nel destinatario del messaggio: la conoscenza della lingua e dell’alfabeto, per

esempio, ma anche l’udito e la vista. Questi ultimi costituiscono di fatto dei dispositivi di ricezione naturali

dell’uomo, mentre il parlare e il gesticolare sono, invece, i suoi naturali dispositivi di trasmissione: l’uomo è

medium delle cose che attraverso di lui si dicono.

Fino a fine 800 l’uomo aveva cercato di superare le barriere di una comunicazione che imponeva la

compresenza fisica degli interlocutori.

Il controllo esercitato dall’uomo sullo spazio e sul tempo della comunicazione diventa il motore della

crescita e dello sviluppo di nuove forme e tecnologie di comunicazione predisposte a colmare le distanze di

luogo e di tempo.

La scrittura diventa uno strumento utile per astrarre l’oggetto dalla sua fisicità, per controllarlo, per dargli

senso. È un controllo che conferisce potere a chi lo gestisce. Ma diventa fin da subito anche uno strumento

economico: la scrittura prende origine, infatti, proprio da esigenze amministrative e contabili. La successiva

evoluzione della moneta finirà con l’astrarre l’oggetto fisico dalla sua riproduzione contabile: il segno

numerico verrà adottato come unità di rappresentazione quantitativa indipendente dal rapporto uno a uno

definito in precedenza tra l’unità di scambio e il gettone. È un passaggio importante, che segna anche

l’evoluzione di una scrittura che dalla descrizione dell’oggetto (pittogramma) passa alla sua

rappresentazione simbolica (ideogramma). Il passaggio decisivo verso la completa astrazione della scrittura

lo si avrà con la nascita e lo sviluppo dell’alfabeto. È una fase di passaggio fondamentale nell’ambito

dell’evoluzione delle tecnologie di comunicazione: la scrittura diventa definitivamente un sistema di codici

astratti, disgiunti dalle analogie iconiche e dalla sensorialità del passato: non più immagini ma suoni

codificati, ossia dei fonemi. Noi produciamo e percepiamo suoni secondo una sequenza temporale e la

percezione del messaggio avviene come una decifrazione di una serie di piccoli segni, ossia le lettere,

disposti in successione cronologica.

La scrittura non è semplice trascrizione dell’oralità, ma diventa essa stessa generatrice di lingua e modello

di conoscenza. Nell’atto di tradurre un modello concettuale in modello testuale, la nostra mente è portata

tendenzialmente a linearizzare il pensiero. Un modello logico di linearizzazione del pensiero che si rifletterà

anche su una visione deterministica dell’organizzazione stessa del mondo.

La scrittura sviluppatasi inizialmente come tecnologia di comunicazione finisce col diventare una

“tecnologia dell’intelletto” talmente connaturata nel nostro apparato cognitivo che diventa difficile per noi

comprendere oggi, come possano essere state le parole prima che venissero scritte. Non è possibile per noi

pensare le parole senza vederle.

L’alfabeto è quindi, di fatto, una “macchina” per pensare che funziona operando delle scelte a partire da un

patrimonio di conoscenze (memorie di dati, fatti, eventi) le elabora in una serie di concetti e significati

codificati in lettere e parole (procedure) che restituisce secondo un ordine di connessioni logiche

(informazioni).

La scrittura è il primo e forse più importante medium che l’uomo abbia mai sviluppato.

2.2 Concetto di medium

Dobbiamo a McLuhan e alle sue acute e innovative analisi delle tecnologie di comunicazione la creazione e

una prima provocatoria definizione del termine medium, ossia “il medium è il messaggio”. Con tale

asserzione, McLuhan intende porre l’attenzione sul fatto che ogni nuova tecnologia di comunicazione

influisce sul pensiero, sulla cultura e sulla società nella misura in cui dà informazione di sé al messaggio che

trasmette. È il mezzo stesso che produce informazione, secondo McLuhan, non tanto il suo contenuto.

La stampa, medium caldo, permise agli uomini di vedere per la prima volta la propria lingua definendo

visivamente l’unità nazionale in termini di confini linguistici e insegnò agli uomini come organizzare ogni

altra attività su una base lineare e sistematica. McLuhan si sofferma di più a trattare la dimensione fisica del

medium, direttamente collegata alla sfera tecnologica che non all’ambito dell’esperienza umana e del

linguaggio. Altri studiosi invece affermano che l’innovazione tecnologica applicata ai mezzi di

comunicazione comporti il trasferimento dell’esperienza sui supporti fisici esterni.

Levy: “quasi sempre una tecnologia intellettuale esteriorizza, oggetti vizza, virtualizza una funzione

cognitiva, un’attività mentale.”

In pratica è come se la mente si alleggerisse del carico di compiti che la tecnologia può mutuare. Se da un

lato la mente si svuota di una parte di carico cognitivo, dall’altra parte però sviluppa nuove funzioni

cognitive in virtù del suo rapporto dialettico con il mezzo tecnologico. Il medium, quindi, è un complesso

organico, una protesi cognitiva e sensoriale dell’uomo, in grado di generare nuove tecniche intellettive e

nuove forme di comunicazione. Utilizzando un termine informatico, diremmo che il medium è l’interfaccia

tramite la quale l’uomo si relaziona al mondo esterno, un sistema su cui convergono le interazioni

reciproche tra l’uomo, l’ambiente sociale e la tecnologia, e vengono definite le convenzioni di

rappresentazione delle informazioni che ne permettono l’attribuzione di senso e la comprensione. Questo è

ciò che è avvenuto anche alla nascita della scrittura alfabetica. Il medium è sempre soggetto a un continuo

processo di rimedi azione, nella misura in cui ogni mutazione delle tecnologie o dell’ambiente sociale

ridefinisce anche le regole che lo governano. In questo costante processo di rimedi azione il medium si

costituisce esso stesso come un sistema di interfacce delle diverse forme di comunicazione che rappresenta

nel rapporto con gli altri media. In questo senso, nessun medium attualmente, rappresenta più una sola

forma di comunicazione, ma sono tutti l’espressione di molteplici linguaggi anche molto diversificati tra

loro.

Il medium è pertanto, apparato fisico, apparato cognitivo e apparato semiotico. Sono un’unità distinte tra

loro, ma dipendenti le une dalle altre. L’apparato semiotico può indicare qualcosa di diverso da ciò che

indica l’apparato fisico: la televisione come oggetto fisico, è una tecnologia di ricezione e di trasmissione;

come apparato semiotico invece è un sistema di comunicazione.

A livello cognitivo e percettivo non è possibile modificare la convenzioni d’uso del mezzo, definite in ambito

semiotico, ma è l’uomo, a sua volta, che può modificare le modalità di interazione con l’apparato fisico

determinando nuovi o diversi requisiti d’uso e modificando, di conseguenza, anche l’insieme delle norme

che presiedono all’attribuzione di senso e comprensione del mezzo. Tra queste 3 dimensioni sussiste

pertanto un rapporto dialettico: rimangono distinte ma sussistono solo in funzione delle altre,

modificandosi reciprocamente.

2.3 I media elettrici

L’elettricità riconfigura gli spazi e le distanze: accende i motori e le città e costruisce nuove “strade”, non di

asfalto o cemento, ma di cavi sospesi sulla superficie del mondo. La rete elettrica è anche la prima

autostrada dell’informazione.

I media elettrici si differenziano completamente dai media che li hanno preceduti perché ridisegnano

completamente il tempo e lo spazio del processo informativo.

Tutte le forme di comunicazione che attualmente utilizziamo sono l’evoluzione o la rimedi azione di forme

archetipiche di comunicazione. Il complesso sistema di tecnologie e servizi di telecomunicazione che l’era

elettrica porta con sé riduce lo spazio e il tempo della comunicazione quanto le tecnologie precedenti non

erano riuscite a fare prima, fino a farlo convergere a una presunta simultaneità, ma non lo reinventa.

2.3.1 Reti sociali e reti dell’informazione

Se dovessimo stabilire una data d’inizio dell’era elettrica la potremmo far risalire proprio all’inizio del

secolo, nel 1900. L’elettrificazione era già realtà, ma l’esposizione di Parigi ne diventa la consacrazione di

fronte a tutto il mondo. Accanto al sistema di Edison un’altra importantissima invenzione è l’emblema di

una nuova era: il telefono di Bell, che qualcuno preferirebbe fosse di Marconi. Edison e Bell costruiscono

delle vere industrie dell’innovazione, orientando i loro sforzi non solo alla realizzazione dell’apparato

tecnico, ma anche alla sua diffusione. Accanto alla rete elettrica e telefonica, proseguiva il suo cammino nel

frattempo , anche quella telegrafica.

L’invenzione della trasmissione a onde radio, la telegrafia senza fili, di Marconi consentì ai sistemi di

comunicazione di accedere a un nuovo immenso spazio invisibile, l’etere, dove le informazioni non solo

potevano viaggiare da un punto all’altro del pianeta, come nel caso della telegrafia senza fili, ma anche da

un emittente a un milioni di destinatari. Il nuovo sistema di trasmissione prese il nome di radiodiffusione e

fu immediatamente l’infrastruttura di comunicazione fondamentale dei nuovi mezzi di comunicazione di

massa: la radio e la televisione.

Senza risultare troppo azzardati, potremmo quindi dire che il secolo elettrico è l’era delle reti.

La rivoluzione elettrica espande, per così dire, la città fino a raggiungere tutti i membri della società su più

vasta scala. Gli agglomerati urbani e extraurbani che si generarono attorno alla trasformazione industriale

erano caratterizzati da un’altra difformità sociale e la rete dei rapporti tra i suoi elementi si basava ancora

primariamente su forme di comunicazione faccia a faccia. L’arrivo dell’elettricità, tuttavia, non ha l’exploit

che aveva avuto la macchina a vapore. L’elettricità va a illuminare inizialmente solo la vita di alcuni

ambienti e, in particolare, gli ambienti delle classi più agiate e le città stesse, ma è più un giocattolo

tecnologico, un fenomeno in grado di suscitare stupore alle esposizioni internazionali. Quello dell’elettricità

è un cammino lento, senza clamore. Il boom economico che segue gli anni dopo la seconda guerra

mondiale rende finalmente tangibile ciò che prima era invisibile: l’elettricità assume una sua fisicità nei

benefici apportati dalla diffusione degli elettrodomestici, ridefinendo peraltro i ruoli sociali anche

nell’ambito del nucleo familiare. L’elettricità non è solo espressione di automatizzazione, ma è anche

trasmissione di onde elettromagnetiche: essa prende la forma della radio e della televisione. Diventa la rete

che permette ai membri di un’ampia realtà sociale complessa e diversificata di riconoscersi nell’ambito di

una stessa cultura: la cultura di massa.

2.3.2 Multidirezionalità e simultaneità della comunicazione

Nel 1922, come abbiamo già potuto vedere, il problema principale della trasmissione radio era la sicurezza

(qualcuno poteva intercettare il messaggio).

La ricerca di Marconi era rimasta fondamentalmente incentrata nello sviluppo di una tecnologia ancora

incentrata sulla bi direzionalità della comunicazione.

Sarnoff intuisce che il difetto naturale della trasmissione radio costituisce, invece, la vera e grande

peculiarità di quel mezzo di comunicazione, in quanto essa può offrire una diffusione multi direzionale del

messaggio, ossia può essere inviata contemporaneamente a più ascoltatori.

Il telefono permette agli interlocutori di comunicare a distanza, in maniera simultanea e bidirezionale, ossia

la trasmissione rimane confinata esclusivamente nell’ambito di una comunicazione da un solo emittente a

un solo destinatario. Con l’avvento della radiodiffusione circolare, viene introdotta, invece una nuova logica

di trasmissione del messaggio: una comunicazione che si sviluppa da un punto per raggiungere

simultaneamente molti punti, da cui la definizione di comunicazione multi direzionale. La comunicazione

multi direzionale stabilisce in questo caso, un tipo di comunicazione asincrona tra emittente e ricevente: il

messaggio risulta più unitario, congruente e autoreferenziale di una comunicazione parlata, svincolato dalle

interferenze di un interlocutore, ma riduce il tempo e lo spazio di un’azione cosciente del destinatario tra

l’emissione e la ricezione del messaggio. L’utente è indirettamente costretto a non decidere ed è proprio

l’assenza di questo momento inferenziale che distingue la radio e la televisione da altre forme di

comunicazione circolare come il libro o il giornale. Il messaggio della radio e della tv viene ascoltato nel

medesimo istante in cui viene emesso. Il messaggio radio è costituito da un flusso di informazioni che si

esauriscono nel momento stesso in cui vengono trasmesse (streaming). Tale peculiarità del mezzo si

traduce nell’impossibilità del destinatario di partecipare all’organizzazione dei tempi di lettura del

messaggio, che vengono invece determinati esclusivamente dall’emittente.

Gli sviluppi successivi operati negli anni più recenti, soprattutto nell’ambito della televisione, saranno

orientati a superare proprio questo limite.

2.3.3 Il terminale domestico

Come già abbiamo visto fino alla fine dell’800 non c’era mai stata la necessità di introdurre nelle case un

dispositivo di ricezione per la decodifica del messaggio. Con il telefono, per la prima volta, un dispositivo si

occupa di fare nella sfera privata dell’uomo quello che faceva il telegrafista, ossia ricevere i dati invisibili

provenienti dalla rete e tradurli in forme più adeguate alla loro immediata comprensione e viceversa. In tal

senso, il telefono è il primo terminale domestico. In seguito i mezzi di comunicazione di massa si dotano

presto di una forma culturale propria. Non si dispongono all’atto comunicativo, ma sviluppano una

comunicazione verticale, da un centro verso molti ricettori che non hanno la possibilità di rispondere

simultaneamente sullo stesso canale.

La loro immediata diffusione va individuata, probabilmente, in una bassa soglia di accesso al medium: il loro

utilizzo non è connotato da regole o convenzioni particolari. I mass-media diventano espressione di una

determinata tipologia della cultura di massa che si concretizza fondamentalmente nelle forme

dell’intrattenimento e del tempo libero. Anche se connettori sociali di una realtà più complessa e

diversificata, essi non possono essere, tuttavia, solo che la rappresentazione virtuale di una certa

dimensione culturale di quella realtà. In questo senso i mezzi di comunicazione di massa sono la prima

efficace rappresentazione di una realtà mediata o diremmo meglio di una realtà virtuale. Un altro elemento

importante da sottolineare è, infatti, che il terminale domestico introduce nelle case, per la prima volta il

concetto di utilizzo interattivo del mezzo, che consiste nella possibilità di modificarne il messaggio: il

telecomando, il video on-demand, la possibilità di utilizzare attivamente il mezzo per la propria produzione

di contenuti come foto o video. La televisione si sviluppa sempre come strumento culturale di una società

omologata e sempre più come strumento che si adatta alle esigenze culturali del singolo.

2.3.4 La platea virtuale

La macchina cinematografica aprì le porte dello spettacolo alla massa in un periodo in cui con la

ridefinizione dell’orario ottenuta dal movimento operaio e la conseguente nascita del tempo libero.

La cultura di massa e il consumo di felicità immediata, diventa in breve il tempo il prodotto della nuova

industria culturale, la valvola di sfogo di una società industrializzata che traspone nella dimensione

dell’immaginario le esigenze e gli impulsi dell’inconscio, identificando lo spettatore o il lettore in personaggi

mitologici e consentendogli una rapida e temporanea gratificazione. Mai forse, come il cinematografo, una

macchina sarebbe stata in grado di trasferire l’inconscio dell’uomo in questa dimensione onirica. Lo stesso

processo messo in atto all’interno della sala cinematografica ripercorre l’atto del sogno. Non a caso, esso

verrà considerato “fabbrica dei sogni” e crescerà assieme alla psicoanalisi, mentre molteplici studi si

intrecceranno sul versante del rapporto tra cinema e psiche.

Identificazione e proiezione sono i due processi principali attraverso i quali lo spettatore partecipa alla

situazione cinematografica. Se attraverso il processo di identificazione il soggetto si immedesima nei

personaggi e ne assorbe gli atteggiamenti e i sentimenti, attraverso il processo di proiezione trasferisce le

proprie dinamiche interne in quei personaggi, come avviene, per esempio, per la traslazione dei sentimenti,

che in realtà sono propri dello spettatore: l’identificazione attiva la proiezione e la proiezione rafforza

l’identificazione.

Chi per motivi professionali interpreta sistematicamente i sogni dei paziente, deve in modo particolare

tenersi al corrente della produzione cinematografica. Il cinema, come la pittura, tiene distante la realtà

rappresentata dallo spettatore, all’interno di una cornice che separa nettamente lo spazio reale da quello

virtuale. La stessa separazione viene operata già nei secoli precedenti dalla pittura. Se il cinema è la prima

macchina in grado di generare l’illusione dinamica della realtà, ben prima l’arte inventò un’altra tecnica in

grado di generare un’altra illusione delle realtà: quella dello spazio prospettico. Ambedue le tecniche

cercano di generare una continuità tra lo spazio reale e lo spazio virtuale.

Il dipinto, la fotografia, la televisione sono finestre che, seppur collocate fisicamente negli spazi della nostra

realtà quotidiana, si aprono su nuove dimensioni spazio-temporali, in grado di catturare i nostri sensi

convogliandoli nella profondità di uno spazio non reale, ma oniroide, ossia più vicino alla trascrizione del

nostro inconscio che non della realtà. Il quadro ha una sua funzione specifica: cercare di escludere tutti gli

elementi che stanno al di fuori di esso e concentrare l’attenzione del soggetto esclusivamente sulla

rappresentazione in esso contenuta. Il coinvolgimento inconscio dello spettatore è tanto maggiore quanto

più egli non avverte lo spazio fisico esterno al quadro. Tale aspetto rende il cinema diverso dalla televisione:

a differenza dello schermo cinematografico le dimensioni ridotte della televisione la collocano in un ambito

percettivamente meno invasivo. Mentre l’affresco è più immersivo e ci invoglia ad entrarvi dentro,

l’osservazione del dipinto costringe maggiormente la nostra osservazione all’immobilità e alla distanza, che

mantiene lo spazio fisico dell’osservatore maggiormente disgiunto dallo spazio virtuale della

rappresentazione. Ciononostante, il cinema, come abbiamo visto, pur obbligando all’immobilità, riesce più

di qualsiasi altro mezzo a coinvolgere inconsciamente lo spettatore perché è l’occhio della telecamera la

porta d’ingresso allo spazio rappresentato ed è quello che sposta in continuazione la sua osservazione

verso nuovi spazi e nuove profondità, da lui nemmeno immaginati.

La condizione di immobilità fisica dello spettatore è il presupposto della sua mobilità virtuale. Il cinema è

un’arte e costruisce il suo rapporto in maniera individuale e soggettiva con lo spettatore. La televisione è,

invece un mezzo di comunicazione di massa. La televisione non genera il buio attorno a sé, ma si integra

nello spazio reale e nello stesso tempo riflette ne suo spazio gli elementi iconici della realtà. In tal senso,

non vi è distacco onirico dal mondo fisico, ma una compartecipazione costante e diretta con esso.

Se il cinema abbandonò presto il suo valore iconico, ossia la sua capacità di riprodurre il mondo reale, per la

televisione questo divenne, invece, l’elemento preponderante. Lo stesso divario tra il mondo onirico del

cinema e quello realistico della televisione si riflette anche nei modelli che essi rispettivamente

propongono al pubblico.

“La tv rappresenta come ideale l’uomo assolutamente medio.”

Mai come oggi, in epoca di reality show, la televisione rispecchia così tanto la visione di Umberto Eco e la

amplia. Nel reality show la televisione entra a far parte integrale del reale adottando come attori gli

spettatori stessi. Nella televisione, quindi, molto più che nel cinema, lo spazio virtuale diventa spazio

sociale, a tal punto da volersi confondere con la realtà stessa.

La televisione da almeno una decina di anni, però, sta sviluppando nuove forme comunicative. Il quadro

televisivo sta recuperando la dimensione percettiva del cinema, più soggettiva ed evasiva, meno

omologata. In tal senso va considerato lo sviluppo dello spazio televisivo come spazio personale di

intrattenimento. In particolare, il videogioco riconduce l’utente alla metafora cinematografica. Nel

videogioco, lo spettatore diventa esso stesso protagonista e regista. Il coinvolgimento diventa immersione:

la pratica interattiva, concentrata sull’azione virtuale, e la spazializzazione del suono dissolvendo

completamente lo spazio reale circostante, proiettando lo spettatore all’interno dello spazio virtuale e

annullando la cornice di separazione da quello fisico. È molto probabile come già successo, che il

moltiplicarsi delle tecnologie e delle forme comunicative possano andare a rimediare sempre più la

televisione nella direzione che abbiamo descritto, delegando ad altri sistemi di comunicazione funzioni di

connessione sociale: piccole cornici virtuali che non obbligano l’utente a rimanere immobile, ma che si

muovono con lui. Sono i cellulari, i palmari, le console tascabili per videogiochi, i notebook.

2.4 Dall’analogico al digitale

Internet ci può sembrare una tecnologia di rete relativamente giovane essendosi imposta nell’ultimo

decennio del secolo scorso. Essa, tuttavia, prende storicamente origine più di trent’anni fa, come protocollo

di trasmissione, ma ha solo dodici anni meno del telefono. La prima telefonata avvenne da londra a new

york nel 1927 mentre il primo concepimento di una macchina ipertestuale risale al 1939 per opera di

Vannevar Bush. In quel periodo la telefonia aveva già sviluppato servizi alternativi come l’ora esatta e le

prenotazioni a teatro.

2.4.1 La macchina di Babbage, la tabulatrice di Hollerith e il Memex

Le riflessioni di Bush sono lontane da un’integrazione di sistema di rete che avverrà con internet. Anzi il suo

sistema denominato Memex (Memory Exnteder) è completamente meccanico, analogico. Si basava su pù

lettori di microfilm che collegati tra loro e integrati da un sistema di acquisizione immagini poteva

memorizzare i fotogrammi e collegarli automaticamente. Nell’ottica dell’integrazione il Memex di Bush

nonostante rimanga un concetto astratto, in quanto non verrà mai realizzato, diventa estremamente

interessante: esso, infatti coniuga all’interno di uno stesso sistema le tecniche di montaggio, mutuate dal

cinema, con le tecniche utilizzate dalle macchine di calcolo che si cominciano a teorizzare compiutamente

proprio in quegli anni, ma cui la prima vera intuizione va ricollegata un secolo prima alla macchina analitica

di Babbage.

Charles Babbage studia, infatti, nel 1834, un sistema di gestione meccanica di schede perforate. L’intuizione

gli venne dall’invenzione di un artigiano francese, Joseph-Marie Jacquard, che concepì un telaio in grado di

tessere delle complesse decorazioni in maniera automatica mediante l’ausilio, appunto di schede perforate.

Interessante che sia esistita una macchina per sintetizzare immagini, prima che venisse utilizzata per

processare numeri.

Babbage ha un’intuizione fondamentale: comprende che la sua macchina dovrà prevedere un processo per

eseguire le operazioni matematiche e un processo per registrare i risultati, e quindi le operazioni

matematiche e un processo per registrare i risultati, e quindi un’unita che opera, un deposito di

informazioni e delle istruzioni da eseguire. Sono le unità che noi, oggi, riferendoci ai moderni calcolatori,

chiamiamo l’elaboratore centrale, la memoria e i programmi.

L’ingegnere americano Hermann Hollerith concepisce un sistema elettrico ad aghi in grado di leggere delle

schede perforate: al passaggio della scheda l’ago che incontra una perforazione chiude un circuito,

diversamente lo lascia aperto. La macchina riprende pienamente le tre funzioni dell’elaboratore della

macchina di Babbage: l’introduzione dei dati (input), la loro elaborazione e l’uscita dei dati elaborati

(output), riducendo inoltre gli errori di lettura.

La macchina di Babbage, la macchina di Hollerith e il Memex perseguono di fatto un obiettivo comune:

quello di mutuare i processi di archiviazione, elaborazione e associazione delle informazioni operanti nella

mente umana. E loro attraverso un processo, sostanzialmente comune, che consiste nella scomposizione

dell’informazione in tante unità informative e la loro ricomposizione secondo significati e percorsi di lettura

diversi che vengono determinati di volta in volta dalle esigenze dell’operatore.

Tre concetti di grande rilevanza informatica: la memorizzazione periferica delle informazioni, l’inserimento

di informazioni, il programma di elaborazione.

Le visioni di Babbage e Hollerith arrivano a definire già la caratteristica fondamentale del formato digitale,

ossia la rappresentazione discontinua dell’informazione: ambedue le macchine proposero, infatti, una

struttura dell’informazione basata su un numero fisso di campioni, fissati sulla scheda dalla presenza o

meno di perforazioni. Questo permetteva già di fatto una scelta binaria. Lo stesso concetto di discontinuità

viene ripreso anche dal Memex di Bush in termini di accesso casuale (random) all’informazione.

“la mente umana opera per associazioni. Una volta che essa abbia un elemento a disposizione, salta

istantaneamente all’elemento successivo suggerito, in base a un intrico di piste registrate nelle cellule del

cervello, dalla associazione di pensieri. La decisione per associazione piuttosto che per indicizzazione,

potrebbe essere forse meccanizzata.” (Bush)

Anche se il Memex non venne mai costruito, Vannevar Bush aveva già di fatto posto le basi teoriche per lo

sviluppo del futuro ipertesto. È interessante notare, infatti, che se da un lato la ricerca di nuovi fondamenti

teorici sull’elaborazione delle informazioni si traduceva in nuovi modelli matematici e meccanici,

contemporaneamente, fin dall’inizio essa si riflettè anche sulla ricerca di nuove forme cognitive. Tutte le

piattaforme convergeranno verso la piattaforma digitale. Il cinema, già assume naturalmente le forme di

questa discontinuità. Questo stesso concetto di frammentazione, elaborazione e aggregazione di dati è lo

stesso processo che verrà messo in atto dalla successiva digitalizzazione dei media. Il Memex rimedia dal

cinema la discontinuità della rappresentazione, ma ne modifica lo logica di lettura spostando la linearità

dalla sequenza su una dimensione trasversale, ossia dispone idealmente tutte le unità informative su un

piano orizzontale predisponendole al montaggio simultaneo. Nella visione di Bush prende forma per la

prima volta un concetto chiaro che si definirà molto più avanti: sul fruitore dell’informazione si sposta il

processo di costruzione dell’informazione, ossia lo spettatore diventa regista.

2.4.2 La codifica digitale

Quando parliamo di mezzi di comunicazione, parliamo sostanzialmente di strumenti in grado di trasmettere

delle informazioni. Per informazioni generalmente intendiamo uno scambio di notizie che va a generare

nuove conoscenze. Potremmo dire che stabilendo un confronto tra due o più dati riusciamo a definire dei

risultati. George Boole, matematico, nel 1854 volle dimostrare come il pensiero logico spogliato

dell’elemento connotativo si traducesse in pratica in una sequenza di scelte. La risposta che ci serve e che

non conosciamo è un “si” o un “no”: questa risposta definisce l’informazione. Claude Shannon lavorando

con Vannevar Bush che stava sperimentando l’analizzatore differenziale, si concentrò sul passaggio di

informazioni che avveniva attraverso il centinaio di relè di cui era dotato l’apparato. Mentre analizzava la

commutazione dei relè realizzò che un interruttore poteva risultare sempre acceso o spento, aperto o

chiuso. Pensò quindi come si potevano rappresentare da un punto di vista matematico questi due stati e si

rifece all’algebra di Boole che riconduce un’enunciazione logica a una sequenza di risultati tra due valori:

vero o falso. Quantificò quindi l’informazione con una grandezza che può assumere solo uno dei due valori:

1 o 0. Questa grandezza chiamata bit, che è l’abbreviazione di binary digit. In tal senso la quantità di scelte

che servono per definire un contenuto determinano la quantità di bit e quindi di informazione.

Tutta l’analisi da parte di Shannon parte dallo studio di un problema concreto, ossia in che maniera fosse

possibile trasmettere un qualsiasi messaggio in maniera che tale venisse garantita il più possibile una

fedeltà di risposta. Il suo merito non fu quello di aver ricondotto la molteplicità dei messaggi a una

codificazione unitaria, il digitale, quantificando l’informazione in un’unità di misura, ossia il bit, ma anche

quello di aver definito un modello unificato di codificazione e trasmissione dell’informazione per tutti i

canali trasmissivi: cavi elettrici ed etere, fino ad arrivare alle attuali fibre otiche. Egli stabilì un’unica

grandezza di riferimento per questi canali, ossia la loro capacità di trasmissione, misurabile in quantità di bit

che essi riescono a trasferire nell’unità di tempo. Shannon inserì anche il concetto di rumore che influisce

inevitabilmente, sulla trasmissione di qualsiasi segnale debba passare per un canale fisico.

Il modello rappresentato dalla figura seguente è, in definitiva, il processo si comunicazione definito da

Shannon, dove, agli elementi tradizionali (sorgente, canale, destinazione), si aggiungono i codificatori, il

decodificatore e il rumore.

Una condizione limite per una trasmissione fedele era che la quantità d’informazione prodotta dalla

sorgente nell’unità di tempo non superi la capacità del canale.

Quando shannon arriva a definire la sua teoria matematica, l’era digitale era appena cominciata (c’era

ENIAC Electronic Numerical Integrator and Calculator). Di qui in avanti gli sforzi della ricerca informatica

convergeranno sempre più sullo sviluppo di tecnologie maggiormente concentrate sulla riduzione di

consumo di energia, sulla velocità di calcolo e sulla miniaturizzazione, in una scansione temporale che

andrà a definire le diverse generazioni di computer che seguiranno.

Il passaggio dalla prima alla seconda generazione è segnata dall’invenzioni del transistor.

Quello dalla seconda alla terza dall’invenzione del circuito integrato (chip) da parte di Jack Kilby. Chip

composto da tanti interruttori in grado di trasmettere informazioni in sequenze binarie.

Con l’invenzione del primo microprocessore, un circuito integrato che per la prima volta permetterà di

concentrare su una piccola piastrina di silicio di 4,3 mm tutti i componenti di un’unità centrale di

elaborazione (CPU), si aprirà l’era dei personal computer.

La digitalizzazione dei segnali determinerà, infatti, fondamentalmente il passaggio da reti specifiche a reti

neutre, ossia canali trasmissivi abilitati al trasporto generico di qualsiasi forma di contenuto. Il risultato di

questa convergenza di segnali si tradurrà in un’ampia contaminazione di forme di comunicazione degli

universi della televisione, delle telecomunicazioni e dell’informatica e nell’inizio di una nuova era della

comunicazione: l’era digitale.

CAP.3 LA CONVERGENZA AL DIGITALE

Una serie di caratteristiche oggi in maniera riferite ai nuovi media digitali, in realtà erano già appannaggio

di media preesistenti. Non è un’esclusiva dei nuovi media digitali, per esempio la multi direzionalità e la

simultaneità della comunicazione o l’interazione con un terminale domestico. Non lo è nemmeno la

trasmissione di dati in rete o la rappresentazione discontinua dell’informazione.

I principi costitutivi dei nuovi media digitali vanno individuati nella convergenza al digitale, nella

multidimensionalità del messaggio e nell’esperienza interattiva.

3.1 La globalizzazione dei sistemi

Negli anni 70 Anthony Oettinger professore di Harvard, decide di coniare un neologismo ossia

compunication. Tale termine andrà successivamente ad indicare per gli USA, un concetto che per gli

europei corrisponderà a quello di telematica.

Il primo sottolinea maggiormente il concetto di elaboratore, ossia il computer e ponendo di fatto l’accento

sull’aspetto tecnologico, che andrà di seguito a guidare il processo di sviluppo delle “autostrade

dell’informazione”. Il secondo, invece, su quello di comunicazione: la telematica non trasporta corrente

passiva ma informazioni e quindi potere; gestire la rete diventa un obiettivo fondamentale.

Una prima definizione del concetto di convergenza al digitale lo dobbiamo a Nicholas Negroponte,

fondatore del MediaLab al MIT, il quale nel 1978 visualizzò 3 cerchi sovrapposti la concentrazione delle

industrie di informativa, della stampa e del broadcasting. Il concetto che sta alla base delle teorie di

Negroponte è segnato dall’esclusiva attenzione che viene posta sulle modalità di trasmissione e non sul

contenuto dell’informazione: “Per pratica diciamo che un bit è 1 o 0. Che cosa significhi l’1 o lo 0 non ci

interessa.” Negroponte a differenza di Shannon ne amplia gli effetti a tutta la sfera dell’essere.

Questa trasmutazione da atomi in bit, non è sufficiente, tuttavia, a supportare un’efficace e credibile teoria

strutturata sulla convergenza digitale, quanto invece ad appoggiare le teorie estreme di uno dei più famosi

visionari della rete, il quale non esiterà a stigmatizzare coloro che non usufruiscono di internet che

Negroponte chiamerà “senza tetto digitali”.

Di fatto il dibattito sulle dinamiche della convergenza al digitale rimane, oggi, ancora aperto e non esiste

ancora un neologismo che definisca bene la combinazione di concetti quali la telecomunicazione,

informazioni e computer. L’unica cosa che al momento possiamo affermare con certezza è che sistemi di

trasmissione di informazioni come le telecomunicazioni, la comunicazione di dati e il broadcasting, che

lungo l’arco del secolo scorso si erano sviluppate secondo forme e regole autonome, oggi hanno cominciato

a integrarsi, ma per capire come siano nate le dinamiche della loro convergenza dobbiamo risalire non solo

a motori di ordine tecnologico, ma anche economico e sociale.

3.2 Codifica numerica e reti neutre

La quantificazione dell’informazione teorizzata da Shannon riconduce la rappresentazione di qualsiasi

messaggio a un unico formato fisico, quello digitale, e segna il passaggio da un concetto di rete specifica a

un concetto di rete neutra, ossia in grado di trasferire qualsiasi tipo di contenuto.

Due principali linee del progresso: da una parte la corsa alla digitalizzazione di tutte le forme di

comunicazione, dall’altra la corsa verso l’ampliamento della capacità di trasmissione del canale.

3.2.1 La codifica numerica

La tecnologia informatica tende a trasformare e unificare il formato fisico dei mezzi di comunicazione

analogici, in un unico formato immateriale che oggi noi comunemente chiamiamo digitale, ossia una

codifica numerica binaria del messaggio costituita da sequenze di 1 e 0.

Ma cosa cambia tra la rappresentazione di un’immagine su pellicola alla rappresentazione che ne fa per

esempio il computer? In linea generale a livello di visualizzazione non cambia nulla: le immagini ci

sembrano uguali. Ma se iniziamo a duplicare l’immagine della pellicola su un’altra pellicola e su un’altra

ancora e lo stesso facciamo col computer, nel primo caso la visualizzazione dell’immagine sembra rimanere

inalterata, nel secondo invece, va progressivamente a degradarsi: è come se l’immagine costantemente

perdesse informazioni relativamente al colore, alla luminosità, alla definizione complessiva. Le teorie di

Shannon cercano di trovare un modo per riuscire a trasferire un messaggio in maniera tale da garantire la

fedeltà di risposta a destinazione. Affinchè questo fosse possibile fu necessario, all’inizio quantificare

l’informazione ossia darne una rappresentazione numerica: una serie di codice che permettessero di

registrare le variazioni di stato di una grandezza fisica non in maniera continua, ma per successivi

campionamenti numerici. Tale rappresentazione viene indicata come rappresentazione discreta.

Nel momento in cui noi definiamo degli intervalli regolari di registrazione di un percorso in salita, ossia i

gradini, possiamo dire che “campioniamo” la salita. Nel campionamento di un segnale analogico, il segnale

continuo viene campionato a intervalli regolari (periodo di campionamento) in una sequenza di codici

numerici che ne definiscono la sua rappresentazione discreta (digitale). Maggiore sarà la frequenza di

campionamento maggiore sarà la qualità e la definizione del segnale.

Nel campionamento digitale di un’immagine dobbiamo pensare che la complessiva rappresentazione

continua e indefinita dell’emulsione fotografica impressionata, ricca di dettagli e informazioni, venga

codificata, invece, in un numero finito di campioni, che in questo caso chiamiamo pixel, ognuno dei quali

riconduce tutte le informazioni di un specifico punto dell’immagine a dei valori unici di riferimento come la

cromia e la luminosità dell’immagine. Facendo così si perdono delle informazioni , seppur minime: il

problema della codificazione digitale, infatti, non consiste nel maggior carico di informazione da

rappresentare, ma nel quantificare l’informazione utile da rappresentare.

L’ingrandimento di un’immagine analogica rivela un indefinibile numero di informazioni e di dettagli che

vengono evidenziati dalla sfocatura e dalla granulosità dell’immagine; l’ingrandimento digitale invece rivela

il punto dell’immagine ben delimitato dal colore e contiene meno informazioni: mancano le informazioni

relative alle variazioni intermedie tra i campioni. Il campionamento dell’immagine si traduce in bit, e questa

codifica digitale viene rappresentata sullo schermo da una matrice di pixel.

In un’immagine in bianco e nero, l’immagine è rappresentata semplicemente da una configurazione di pixel

accesi o spenti: nel primo caso ritornerà come valore cromatico il bianco nel secondo il nero. Ogni pixel

corrisponde a un bit. Questo genere di rappresentazione dell’immagine viene definito bitmap, laddove si

memorizza la mappa dei pixel che descrivono un’immagine in un’equivalente mappa di bit. Tuttavia se la

nostra immagini rimanesse a colori questa condizione non sarebbe più valida, perché le informazioni in bit

richieste per ogni pixel, utili a memorizzare maggiori informazioni sul colore, andrebbero esponenzialmente

oltre il rapporto uno a uno tra pixel e bit.

Esiste pertanto una seconda variabile utile a stabilire la maggiore o minore fedeltà della riproduzione

digitale, oltre alla frequenza di campionamento, ed è la profondità di bit, ossia la quantità di bit impiegati

per descrivere la quantità di informazione memorizzata per ogni campione e quindi l’accuratezza con cui

ogni campione viene registrato (quantizzazione). Nel caso dell’immagine bitmap, la scelta dei valori

cromatici è limitati a due risultati, bianco o nero. Se i bit assegnati al campione per registrare le

informazioni fossero 16, gli elementi disponibili per effettuare una scelta più fedele del colore sarebbero

molti di più: calcolando che a ogni bit corrisponde una scelta binaria la quantità di oggetti numerabili

16

sarebbe uguale a 2 ossia 65536, ossia i colori. Anche nel testo c’è una cosa simile ogni carattere ha valore

8

2 bit ossia tale da rappresentare tutti i 256 caratteri.

3.2.2. la trasmissione digitale in rete

Il concetto di rete preesiste a internet e indica più genericamente, l’insieme delle connessioni che

permettono la comunicazione tra due o più utenti.

L’esempio più concreto di conversione da analogico a digitale del segnale di trasmissione lo abbiamo

sicuramente nella rete telefonica, la cui digitalizzazione, compiutasi in Italia lungo l’ultimo ventennio del

secolo scorso, non a caso finisce con l’integrare in maniera definitiva i servizi di telefonia e comunicazione

dati all’interno di un’unica rete di trasporto. Parlare oggi di telefonia non significa più parlare solo e

necessariamente di telefono, ma anche di altri apparecchi in grado di collegarsi alla rete per trasmettere

informazioni quali, per esempio il fax, il computer o il modem. La codificazione digitale del segnale

consente, oggi, l’integrazione di una molteplicità di servizi all’interno di uno stesso canale di trasmissione

che originariamente era dedicato a una sola funzione, ossia la veicolazione della voce.

La porta di ingresso al circuito rimane il doppino telefonico che veicola il segnale che poi viene scomposto e

trasmesso attraverso la rete di supporto.

Il sistema di trasmission analogico della rete telefonica viene definito a commutazione di circuito. Prima che

la comunicazione possa cominciare, questo sistema di rete prevede l’apertura della connessione e la

definizione di un percorso esclusivo e continuo che colleghi l’emittente al destinatario per tutta la durata

della comunicazione (lavoro del centralinista).

In seguito alla digitalizzazione dell’infrastruttura di rete, i tradizionali cavi elettrici sono stati sostituiti da

cavi in fibra ottica che hanno consentito la conversione del segnale analogico in segnale numerico. La fase

di accesso alla rete e il passaggio dal circuito analogico a quello numerico viene fatto da un dispositivo che

permette la reciproca conversione del segnale analogico e digitale. Tale dispositivo viene chiamato codec,

codificatore-decodificatore. Ciò che viene ridefinito dal sistema digitale non è la logica di trasmissione, ma

la gestione del trasporto di informazioni. Nella trasmissione digitale, infatti, le informazioni vengono

frazionate in tante unità autonome che vengono denominate pacchetti. La rete digitale è infatti una rete di

commutazione a pacchetto. Ogni pacchetto di informazioni porta con sé sia le informazioni dell’utente,

come i dati relativi alla conversazione telefonica, sia le informazioni di controllo, ossia quelle relative

all’indirizzamento verso la loro destinazione, indipendentemente dall’autonomia del loro percorso. A

differenza della commutazione di circuito i pacchetti non seguono un percorso predefinito, ma vengono

indirizzati, in corrispondenza di ogni nodo intermedio, verso il percorso più favorevole. Va precisato che

questo genere di gestione e di trasmissione delle informazioni è specifico della comunicazione dei dati, e i

particolare, esso è la piattaforma, su cui si regge lo scambio di informazioni attraverso la rete Internet.

In definitiva la moderna infrastruttura digitale della rete telefonica separa di fatto due processi che prima

usufruivano di uno stesso canale, ossia la gestione della trasmissione e la comunicazione stessa,

permettendo un utilizzo più razionale delle risorse. Tale cambiamento lo vediamo, oggi, riflettersi in una

nuova serie di servizi telefonici, quali l’identificazione della persona che chiama da parte del destinatario,

l’avviso o il rifiuto di una comunicazione, la ripetizione della chiamata nel caso in cui il destinatario risulti

occupato, la possibilità di trasferire la comunicazione su una segreteria vocale, la conferenza a tre ecc..

3.3 Il cammino di convergenza

La trasmissione numerica del segnale rappresenta solo l’aspetto puramente tecnologico del processo di

convergenza dei media, ma non le regole che presiedono alla trasmissione dei dati sulle reti, ossia le regole

che definiscono in che modo i pacchetti di informazioni debbano essere scomposti e ricomposti quando

arrivano a destinazione del percorso che devono effettuare. Questo insieme di regole viene denominato

protocollo, nel linguaggio informatico, un concetto che non coinvolge solo gli aspetti meramente

tecnologici, ma soprattutto, quelli socio-economici.

3.3.1 Il protocollo di trasmissione

La ricerca di quale fosse la piattaforma migliore ha caratterizzato l’ascesa e il crollo sul mercato di una

svariata serie di sistemi e protocolli di trasmissione. I processi di sviluppo non seguono mai un percorso

predeterminato, ma possono essere anche rovesciati in uno dei vari possibili equilibri determinati dagli

eventi fortuiti. Un caso emblematico è rappresentato dalla sfida tra i diversi standard di videoregistrazione.

Nel 1975 Sony lanciò il Betamax, l’anno successivo JVC presentò un altro standard che finì con l’imporsi sul

mercato grazie alla liberalizzazione della licenza di utilizzo del sistema rilasciata agli altri produttori e la

concessione al riversamento sulle proprie videocassette di film a contenuto pornografico, cosa che la Sony

aveva sdegnosamente rifiutato di fare. Questo sistema era il VHS. Alla fine s’impose come standard di

mercato il formato con la qualità più scadente. Non a caso, il letama finì per diventare lo standard della

produzione video professionale. Oggi non si sceglie tra una piattaforma o un’altra, ma si punta

sull’adozione dei protocolli più conveniente a regolare lo scambio di informazioni tra i diversi sistemi di

comunicazione.

Il cammino della convergenza al digitale comincia a partire dagli anni 80, ossia quando si sviluppa la rete di

telecomunicazione via cavo negli USA. Solo allora si comincia a pensare che la convivenza tra due sistemi di

rete, ossia quello a commutazione di circuito tra due sistemi di rete, ossia quello a commutazione di

circuito del telefono e quello a commutazione di pacchetto di dati, potesse andare a convergere verso una

piattaforma comune. In molti pensarono allora che l’ISDN (Integrated Services Digital Network) dovesse

rappresentare la soluzione ideale in termini di convergenza. Nacque così il Broadband ISDN ossia un

potenziamento della linea digitale in grado di integrare in un unico sistema una nutrita serie di servizi

integrati come la trasmissione voce, dati, fax, video nell’ambito di un’unica presa domestica standard da

collegare al terminale. La rete venne controllata da un nuovo protocollo di trasmission: ATM ossia

Asynchronous Transfer Mode. Questo protocollo cercava di combinare in un’unica soluzione i vantaggi

offerti dalla rete a commutazione di circuito, quale, per esempio, la stabilità e la sicurezza di una

trasmissione in tempo reale, con quelli della rete a commutazione a pacchetto, ossia una gestione più

efficiente nella trasmissione delle informazioni. Tuttavia l’affermazione delle rete Internet, sviluppatasi

negli anni 90 ha finito con lo spostare definitivamente la logica di rete di comunicazioni più sulla

commutazione a pacchetto che non su quella a circuito.

Oggi la tecnologia IP utilizza ancora ATM per la trasmissione a pacchetto mentre viene utilizzata la

tecnologia SDH (Syncronous Digital Hierarchy) per le trasmissioni ad alta velocità (155 mb/s).

Ma nuovi standard sono in via di sviluppo per rispondere il maggior standard di qualità richiesto dal

crescente sviluppo di questa forma di comunicazione.

Emerge chiaramente da questa situazione quale sia la complessità dei fattori in gioco in vista di una futura

convergenza delle reti di comunicazione su una piattaforma comune.

Tuttavia la diversificazione delle tecnologie e dei protocolli di rete, potrebbe trovare in una rete Internet

maggiormente potenziata una delle vie tecnologiche più perseguibili in ottica di convergenza (predisposta a

essere una “rete delle reti”.

Quello che possiamo dire con certezza è che il cammino della convergenza al digitale si sta giocando nel

passaggio da una tecnologia di rete a commutazione di circuito in una a commutazione di pacchetto. Va da

sé che tale passaggio si accompagna anche all’adeguamento progressivo della capacità della rete, che

dovrebbe tendere a ridurre sempre più i ritardi costitutivi della trasmissione dati.

3.3.2 Breve storia della rete Internet

Il 1969 è l’anno di nascita di Arpanet, un primo modello embrionale di rete che si evolverà nella futura

Internet. La storia di Arpanet comincia dodici anni prima proprio con il primo vero record portato a

compimento della ricerca spaziale, ossia lo lancio dello Sputnik nel 1957. La paura di spionaggio sovietico

portò gli USA nel 1958 a costituire l’Advanced Research Projects Agency, ossia l’Arpa che raccoglieva i

migliori scienziati per produrre una risposta degna allo Sputnik.

Nel 1961 un altro record sovietico determinò un nuovo smacco per gli USA: il primo uomo a navigare nello

spazio era un astronauta russo, il suo nome era Yuri Gagarin. Gli USA allora crearono una nuova agenzia la

NASA e l’ARPA dovette cercare nuovi ambiti di ricerca e li trovò nel campo delle comunicazioni.

Joseph Carl Robnett Licklider tra il 1963 e il 1965 porrà le basi teoriche che porteranno in seguito alla

nascita di Internet, oltre che all’invenzione del mouse, delle finestre e dell’ipertestualità.

Licklider sottolineava la necessità di generare di un sistema di convenzioni condivise dalla rete degli enti di

ricerca che potessero essere successivamente integrate nelle future reti di computer. Le basi della ricerca

poste da Licklider furono invece più orientate alla condivisione della ricerca e delle risorse scientifiche che

non alla raggiungimento di obiettivi militari. Le implicazioni militari legate alle origini di Internet derivano

tuttavia dall’istituzione governativa all’interno della quale ha avuto origine e dal fatto che ARPA nella

definizione delle specifiche di sicurezza dei dati di Arpanet si fosse riferito alle indicazioni di Paul Baran.

Baran aveva congegnato un modello di rete distribuita che prendeva ispirazione dal modello neurale

costituito dal cervello umano. La rete di Baran si basava sulla ridondanza e duplicazione di connessioni, in

maniera tale che se una sua parte si fosse danneggiata gli altri “neuroni” sarebbero stati in grado di

ripristinare la connessione. Baran studiò inoltre per primo il modo di suddividere le informazione in tanti

pacchetti, meglio conosciuto come packet switching o commutazione a pacchetto. A ereditare le ricerche

portate avanti da Baran fu Robert Taylor che nel 1966 ottiene dall’ARPA un finanziamento per

l’avanzamento di un progetto di rete distribuita. Il progetto venne affidato Larry Roberts. I tempi della rete

ARP sono ormai maturi. Roberts invia nel 1968 a tutte le aziende produttrici un documento in cui richiede la

fornitura di una serie di computer con delle specifiche particolari. La prima azienda a rispondere fu l’IBM la

quale negò qualsiasi possibilità di realizzazione del progetto a causa dei costi eccessivi che ne derivavano.

Non fu così per un’azienda molto piccola, la BBN (Bolt Beranek and Newman) la quale si incaricò di

realizzare i primi computer di sottorete che vennero chiamati IMP (Interface Message Processor). Gli IMP

guys generarono un processo di ricerca dal carattere informale e collaborativo, all’interno del quale

qualsiasi nuova risorsa che veniva elaborata diventava subito patrimonio comune di conoscenza, che finirà

col caratterizzare lo sviluppo della stessa rete Internet. Lo spirito collaborativo è rappresentato dall’utilizzo

di RFC (Request For Comments) che mettevano le innovazioni tecnologiche alla valutazione di tutti.

Tra agosto e dicembre del 1969 nascono i primi 4 nodi di Arpanet: UCLA, Stanford, Santa Barbara e Utah.

Nel frattempo nuovi protocolli di trasmissione venivano sviluppati per Arpanet, tra cui il protocollo FTP (File

Transfer Protocol, ma la grande svolta avvenne nel 1973 quando Vinton Cerf e Bob Kahn, svilupparono il

protocollo TCP/IP che consentiva di gestire in maniera più efficiente e decentrata la trasmissione e la

canalizzazione dei pacchetti. Le caratteristiche del nuovo protocollo favorirono un’immediata espansione

della rete. Alla fine degli anni 80 l’NSF (National Science Foudation) finanziò la costruzione di una dorsale

che consentisse ai vari centri universitari di collegarsi a una velocità più elevata. Con gli anni 90 la NSF apre

la rete anche alle aziende private. Nel frattempo nel 1991, anche l’Europa entra a far parte della storia di

Internet. Tim Berners Lee, presso i laboratori del Cern di Ginevra, sviluppa un sistema per consultare in

maniera agile le informazioni sulla rete e lo chiama World Wide Web. Un nuovo tipo di linguaggio

ipertestuale viene utilizzato l’HTML: Hyper Text Marking Language. Il primo browser fu Mosaic. La nascita

del WWW e del primo browser sono le ultime premesse dello sviluppo di una rete che a partire dal 1993,

fino ai giorni nostri sarà oggetto di un incredibile e rapido sviluppo: la rete Internet.

3.4 Unimedialità e multimedialità

Uno degli aspetti sicuramente più influenti nel rapido evolversi dei sistemi di comunicazione da analogici a

digitali è stata la veloce accelerazione della capacità elaborativa degli strumenti elettronici. Si arriva a una

progressiva miniaturizzazione delle unità di elaborazione a fronte di un aumento esponenziale della loro

velocità di calcolo. La microelettronica è entrata a tal punto nella nostra vita che non costituisce più un

costo. Il percorso della sperimentazione elettronica è, inoltre, indirizzato a una progressiva integrazione di

nuove potenzialità all’interno di queste microunità di elaborazione, tali da consentire la ricezione e la

trasmissione radio o l’analisi dell’ambiente esterno al chip tramite sensori integrati, come registrare la

temperatura in maniera localizzata, riconoscere i suoni circostanti, rilevare la presenza di gas e batteri e

trasformare la casa in una rete di informazioni registrate e incrociate dai singoli microelaboratori.

3.4.1 Il concetto di multimedialità

Risulta evidente come la capacità elaborativa non debba necessariamente convergere verso un unico

medium, ma tenda invece a distribuirsi più semplicemente sui diversi media esistenti o a generare di nuovi

dalla loro rimedi azione, in virtù del fatto che ora parlano lo stesso linguaggio digitale. A fronte di una

dinamica convergente dei sistemi di trasmissione su una comune piattaforma digitale, va di contro

generandosi lo sviluppo di una molteplicità di forme di comunicazione (fig. 3.9). Ogni medium va integrarsi

con gli altri per crearne di nuovi che li rimediano. La codificazione digitale dei media ci porta a esaminare

più attentamente anche il concetto di multimedialità. Non è più sufficiente considerare la multimedialità

come la semplice compresenza di una molteplicità di linguaggi di comunicazione che utilizzano

contemporaneamente diversi canali sensoriali ( in tal caso è multimediale anche il libro illustrato: testo +

immagini). Bisogna esaminare più attentamente il concetto di media.

A titolo di esempio, basti pensare in particolare a come è cambiato il cinema muto con l’integrazione del

sonoro. Il video e il suono rimangono separati anche se uniti e con diversa natura. Il cambiamento

introdotto dalla codificazione digitale dei media consiste per così dire nella loro combinazione fisiologica.

Ogni filmato, suono o immagine, infatti, una volta introdotto nel computer, assume una stessa natura. La

vera trasformazione consiste non tanto nella compresenza dei vari media su uno stesso supporto, ma nella

fusione di questi in unico nuovo medium, il digitale appunto. Non sussistono più le due caratteristiche

fondamentali del concetto tradizionale di multimedialità: la prevalenza del canale, ossia l’esistenza di uno

specifico canale sensoriale dominante rispetto agli altri che rimangono complementari, e l’unità linguistica,

ossia l’esistenza di uno specifico e stabile linguaggio comunicativo.

3.4.2 la struttura del mercato dei media digitali

In anni passati si pensava che la convergenza al digitale avrebbe comportato una verticalizzazione

monopolistica del mercato; invece la diminuzione dei costi e l’aumento della capacità operativa degli

strumenti elettronici ha prodotto un aumento e una diversificazione dell’offerta mediale focalizzata su

servizi specifici e segmenti di mercato orizzontali. Prima dell’avvento del digitale ogni prodotto della

comunicazione definiva anche canali di distribuzione, contenuti e terminali specifici.

Nella struttura illustrata in figura 3.10 è interessante notare come le telecomunicazioni avessero già potuto,

in teoria, sviluppare una conversione analogica elettronica dei diversi contenuti in maniera tale da veicolarli

attraverso la rete telefonica.

L’industria informatica stessa fino al 1970 era strutturata in maniera verticale, ossi ogni produttore

sviluppava componenti hardware e software proprietari e controllava la distribuzione dei propri prodotti

sul mercato. Il momento della trasformazione per il mercato dell’informatica arrivò con l’introduzione del

microprocessore. Negli anni 80 vi fu la destrutturazione del modello verticale. IBM per risultare più

competitiva introdusse per prima un modello di computer ad architettura aperta, ossia compatibile

all’integrazione di componenti provenienti da terze parti, di cui si riservò solo una piccola parte della

proprietà intellettuale. In seguito alla digitalizzazione, il modello di mercato dell’informazione si riflette,

oggi, anche nella destrutturazione del modello di mercato delle telecomunicazioni e dei media grazie

all’elaborazione di protocolli e interfacce comuni tra la rete e i terminali.

Tale sviluppo ha favorito il passaggio da un’organizzazione di mercato centrata sulle funzioni a una centrata

sui processi ossia: contenuti (prodotti di informazione e di comunicazione come immagini, testi, televisione,

musica e fotografia), servizi di gestione (es. l’organizzazione e l’archiviazione delle informazioni , trasporto

(infrastruttura fisica per il trasferimento delle informazioni quali le reti satellitari e terrestri), interfacce

(applicazioni e funzioni che facilitano la trasmissione e la ricezione di contenuto).

3.4.3 Internet come modello di piattaforma digitale

Internet è ancora una tecnologia in sviluppo, non arrivata a una definitiva maturazione ma tuttavia le

potenzialità derivate dalla multimedialità già si riflettono compiutamente nel modello offerto da Internet.

Internet può infatti veicolare qualsiasi forma di contenuto all’interno della sua piattaforma, siano esse

informazioni, messaggi di posta, servizi, immagini, transazioni economiche, giochi, canzoni, filmati anche

trasmessi in tempo reale. Vi è anche una rimediazione dei linguaggi. Barriere ancora presenti per il

completo sviluppo della multimedialità sono la congestione del traffico di informazioni e le restrizioni

imposte dalla banda di trasmissione come da microprocessori spesso ancora inadeguati presso l’utenza

finale. Anche sul fronte di una riorganizzazione orizzontale del processo produttivo: segmentazione

orizzontale tra i diversi fornitori di componenti. Questa struttura si riflette sullo sviluppo innovativo di

prodotti e servizi che nascono a loro volta dall’integrazione di prodotti e servizi eterogenei.

Un’altra importante caratteristica di internet è costituita dalla sua universalità. Internet infatti non è

condizionata da alcun sistema di regolamentazione a livello regionale: non vi è alcuna restrizione per

l’utente. Internet può costituire già oggi un modello di riferimento e definisce le linee di tendenza del

prossimo sviluppo di sistemi legati alla comunicazione digitale: la capacità multimediale, una struttura

specialistica e orizzontale dell’industria, il libero accesso alla rete, la globalizzazione del mercato.

CAP.4 LA MULTIDIMENSIONALITA’ DEL MESSAGGIO

I dipinti della grotta di Altamura in Spagna dimostrano che nel Paleolitico l’uomo ha già preso coscienza di

sé. La maggior parte degli studiosi ritiene che questi segni tracciati sulle pareti non siano solo la descrizione

di animali e scene naturali, ma costituiscano una forma di linguaggio autonomo rispetto alla lingua parlata,

non comprensibile secondo i criteri della linearità narrativa, ma il cui significato va decifrato lungo i tre assi

spaziali della raffigurazione: una specie di pensiero multidimensionale che si irradia e stabilisce una

comunicazione diretta con il mondo circostante.

Questo pensiero non è distribuito secondo una linearità di lettura ma si dispone secondo una mappa di

lettura tridimensionale che definisce il luogo virtuale d’incontro tra l’uomo e la natura che lo circonda.

Oggi potremmo dire che queste pareti rupestri si costituiscono come l’interfaccia tra l’uomo e il mondo

esterno, ossia la dimensione intermedia nella quale viene elaborata e codificata la conoscenza.

McLuhan ha coniato il termine “psico-tecnologia” per definire una tecnologia che emula, estende o

amplifica le funzioni senso motorie, psicologiche o cognitive della mente. Con la realtà virtuale noi

proiettiamo letteralmente la nostra coscienza al di fuori del nostro corpo e la vediamo obiettivamente forse

per la prima volta.

Alcune psico-tecnologie hanno aperto nuovi spazi di rimediazione: la scrittura, la stampa, fino ad arrivare ai

mezzi di comunicazione moderni, ossia la televisione e internet. Spazi deputati a una “rimediazione del

pensiero” dove l’estroflessione cognitiva si traduce inevitabilmente anche in un’introflessione tecnologica.

4.1 Linearità e multidimensionalità

Oltre a ridefinire il pensiero lungo il solo asse spazio-temporale, sequenziale e unidirezionale. La scrittura

ha finito con l’influenzare anche l’evoluzione sociale e culturale dell’umanità.

L’alfabeto fonetico è una tecnologia del tutto particolare: crea una divisione così netta dell’esperienza,

dando a chi ne fa uso un occhio in cambio di un orecchio e liberandolo dalla trance tribale della parola

magica e risonante e dalla rete delle affinità di sangue.

La linearizzazione del linguaggio finì col favorire anche la linearizzazione del pensiero.

Marshall McLuhan individuerà proprio “nell’invadente tecnologia dell’alfabeto la causa nascosta della fede

occidentale della logicità della sequenza”.

Nelle pitture rupestri invece c’è una struttura radicalmente opposta. Per Leroi-Gourhan ci troviamo di

fronte a dei mitogrammi: una serie di disegni simbolici attorno ai quali i membri di un gruppo sociale si

riconoscono. Non a caso il criterio di simbolo implica “riunire”, uno “stare insieme”.

Anche il mitogramma, come la scrittura, è un linguaggio visivo, ma il suo significato deriva da un’interazione

reciproca col parlato che tesse le fila della narrazione. Non ci troviamo infatti ancora di fronte a una forma

di scrittura ma a una sorta di rimescolamento cognitivo che associa riferimenti iconici decontestualizzati dal

loro ambiente e dal loro uso in forme nuove e prive di linearità narrativa: una forma di linguaggio che si

predispone all’immaginazione e che induce il lettore a metterla in racconto, quello che Levi-Strauss chiama

bricolage. Un linguaggio che si realizza, quindi, nella multidimensionalità di una rappresentazione

caratterizzata dalla simultaneità della lettura, dalla mappatura dei simboli su uno spazio tridimensionale e

dalle loro molteplici combinazioni narrative. Sono tutte caratteristiche che non ritroveremo più nelle forme

di scrittura che seguiranno. Questo progressivo allontanamento dalla cultura iconica segnerà anche il

passaggio da un modello di pensiero simbolico a quello analitico e concettuale dell’alfabeto.


ACQUISTATO

2 volte

PAGINE

40

PESO

273.57 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in Scienze della Comunicazione
SSD:
Università: Padova - Unipd
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher zanespace di informazioni apprese con la frequenza delle lezioni di Comunicazione digitale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Padova - Unipd o del prof Guidolin Ugo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in scienze della comunicazione

Riassunto esame Storia dell'Arte Greca e Romana, prof. Busana, libro consigliato La Storia dell'Arte, Gombrich
Appunto
Appunti storia dell'arte contemporanea
Appunto