Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
COMUNICAZIONE:
Fonte → Informazione → Ricevente
La comunicazione è un passaggio di informazioni dalla fonte al ricevente. Si può avere: una
trasmissione, cioè l'informazione che parte dalla fonte ed arriva al ricevente secondo una
comunicazione lineare; uno scambio, cioè la comunicazione dal ricevente torna alla fonte.
“Non si può non comunicare” (Vaslaviz): anche quando siamo in silenzio compiamo un atto
comunicativo. La comunicazione è la scatola che contiene il tutto; la fonte è lo stimolo;
l'informazione è il cosa si comunica; il ricevente è chi utilizza l'informazione (il contenuto) o cosa
mette in moto l'informazione.
La comunicazione lineare tra esseri non esiste, o comunque è difficile da attuare (un comando
potrebbe esserlo, ma crea comunque una conseguenza: esci!, esco ma ti fulmino con lo sguardo,
quindi non c'è più linearità). La comunicazione lineare quindi avviene per lo più tra macchine.
Lo scambio è un rapporto circolare.
Comunicazione diversa da Informazione
Processo di trasporto di energia che Crea differenza. E' ciò che viene trasmesso,
implica il passaggio di uno stimolo qualcosa che passa dalla fonte al ricevente
tra la fonte ed il destinatario. E' il e cambia la situazione. Qualsiasi cosa
processo più ampio dentro il quale può produrre conoscenza.
circola l'informazione.
Varianza è ciò che fa percepire la differenza, è la percezione del cambiamento; informazione è dare
una forma a qualcosa, cioè creare dalla fonte qualcosa che sia conoscibile al ricevente.
L'informazione è il trasferimento di uno stimolo dall'emittente al ricevente che, se avviene
correttamente, può produrre un cambiamento nell'ambiente in cui avviene. Può essere un processo
di conoscenza che permette di ridurre l'incertezza (il caos è un sistema entropico, che per risolverlo
necessita dell'aggiunta di un elemento: l'informazione).
Segnale: manifestazione di qualcosa a cui noi continuamente diamo un significato. E' un impulso
(contenuto) che parte da una fonte, ma per poter parlare di processo di informazione l'impulso deve
essere compreso dal ricevente. Non tutti i segnali però hanno un senso immediato o sono
comprensibili: posso aver appreso un segnale, attribuendogli però un significato diverso o sbagliato.
L'informazione è la trasmissione di segnali comprensibili ed utili: ha un valore se è utile, cioè se è
codificabile e quindi comprensibile tra le persone.
SHANNON E WEAVER:
Teoria matematica dell'informazione.
La fonte dell'informazione è un messaggio (apparato trasmittente), che viene trasmesso ad un canale
(fonte di riunione). Viene poi trasmesso al destinatario (apparato ricevente) sotto forma di
messaggio.
La corrispondenza tra fonte e ricevente non è mai data per scontata: si dà un'attribuzione arbitrale
ed artificiale (processo di reinterpretazione: si dà un certo significato che viene codificato allo
stesso modo da emittente e ricevente).
Codice: selezione arbitraria di senso attribuito al segnale (modalità di organizzare il senso: ci deve
cioè essere un accordo, ad esempio il codice stradale). Il codice è quindi un rapporto che si instaura
tra l'immagine ed il modo di esprimerla, è la forma su cui si decide di esprimere una sensazione.
Una venuti a conoscenza della codificazione si diventa conoscenti.
Senza conoscenza non esiste informazione, ad esempio “andiamo al solito bar”, ma se non c'è
riferimento al luogo preciso non si può sapere. L'informazione produce conoscenza: per essere tale
l'informazione deve essere logica, cioè produrre un segnale che porti alla soluzione del rebus;
un'informazione non logica può, ad esempio, produrre alterazioni mentali in una persona.
L'informazione deve essere utile ed efficiente, cioè immediata, ed ogni situazione ha regole che ne
determinano l'efficienza (economia dell'informazione: l'informazione che disperde meno energia per
essere più efficiente, ad esempio la pubblicità). L'efficienza è data da molte variabili, come ad
esempio l'attenzione.
L'informazione è logica, conosciuta e non deve essere sbagliata pur avendo un margine di errore:
questo margine può produrre uno sbaglio o effetti perversi che in precedenza non sono stati
analizzati.
Shannon e Weawer sono interessati a costruire un modello di informazione (economico e logico, per
ridurre il margine di errore) che permetta di portare in maniera più efficiente l'informazione dal
mittente al ricevente, tramite le macchine, perché sono matematici. La fonte ha un apparato
trasmittente che permette il passaggio; il ricevente ha un apparato ricevente che codifica il
messaggio.
Questi due matematici sono gli inventori della cibernetica: riproducono sinteticamente il pensiero
umano attraverso i meccanismi.
Ci sono 3 regole dei modelli:
- concetto di entropia: per la teoria del caso non esiste un vero sistema entropico.
- feedback
omeostasi: ricerca dell'equilibrio
Si occupano di due aspetti importanti: il rumore e la codifica. La codifica è fondamentale: nello
schema viene riprodotta la struttura utilizzata dai mass-media (apparati e canali).
Canale: l'informazione deve passare tramite un canale, ma non è sempre così facile la trasmissione.
Un disturbo può produrre un'inefficienza, dovuta ad un fattore esterno (es: un fattore temporale. Per
migliorare il disturbo nel canale non si agisce con la tecnologia, ma con un miglioramento dei
codici) o interno (il passaggio da analogico a digitale provoca un miglioramento, quindi una
riduzione di rumore: diminuisce l'inefficienza). Per i due matematici non è rilevante il senso del
messaggio, ma è importante la scelta migliore dei segni per la codifica (la certezza e la
comprensione intervengono nel momento in cui comincia la codifica del messaggio).
Ridondanza: eccesso di informazione. Per gli esseri umani è normale parlare in maniera ridondante,
ma se anche perdiamo qualche parola (perché il messaggio è disturbato) il significato generale lo si
coglie o lo si recupera tramite altri elementi. La ridondanza può essere misurata e si evita
semplificando il più possibile la codificazione, cioè trovando elementi linguistici che permettono di
dire le stesse cose riducendo le parole.
Rumore: è un disturbo e/o una distorsione. La termodinamica intende i disturbi che i segnali
possono subire all'interno del canale; le scienze umane parlano invece di incomprensione di
significato (problema di marketing). Bisogna capire quale sia il disturbo o la distorsione e quindi
trovare la soluzione migliore per eliminarlo.
Un codice è ottimale quando è economico, se il costo del passaggio dell'informazione è sostenibile
per il sistema; efficiente, se non disperde informazioni; utile, se produce vantaggi al sistema;
comprensibile, se viene interpretato correttamente dal ricevente; appropriato, se utilizza un canale
corretto.
Funzioni dei codici: proteggere le informazioni dai rumori; rendere efficiente l'interpretazione
(economia dell'informazione); definire l'ambito di comprensione, cioè chi mi deve capire. Questo
può allargare al massimo la conoscenza o ridurla al massimo (con la crittografia, restringendo la
possibilità interpretativa del messaggio).
TIPI DI CODICE:
Il codice Morse fu inventato nell'800 e fu il primo esempio di comunicazione efficiente a distanza,
multidirezionale, che pone le basi per il sistema di codificazione binaria (0 1) su cui è fondata la
tecnologia di comunicazione digitale. Viene anche inventato il telegrafo grazie all'elettricità.
Il codice Morse è efficiente perché le lettere più usate devono essere quelle con meno caratteri, che
implica quindi velocità e tecnologia (si capiva quali fossero le più usate dal casellario tipografico:
le più consumate erano le più utilizzate).
Vi è un problema di codificazione dei segnali: il problema della teoria matematica. Lo strumento è
il telegrafo, che permette la comunicazione a distanza con un passaggio di informazioni importanti
tramite la tecnologia, che veicola i messaggi. C'è margine di errore e c'è corrispondenza tra segni,
punti e linee.
Morse: antecedente del linguaggio binario, funge da segno di codifica pari ad 1-0 (probabilità
minima che un evento si verifichi, es. testa o croce). Ad ogni segno corrisponde una matrice.
Codice binario: utilizzato dai sistemi informatici, è la modalità di scomposizione delle
informazioni. Sono dei codici discreti o discontinui (01,01,01...): è la più piccola unità
informazionale possibile (nel sistema binario 10.000 corrisponde a 16 nel sistema decimale).
La tecnologia ha permesso questa rivoluzione: con la digitalizzazione si perde però il rapporto con
la realtà (es. una fotografia fotoshoppata) e' introdotta quindi una manipolazione della conoscenza e
del sapere. Quando si fotoshoppa una foto si8 elimina il codice di foto originale (es togliere le borse
sotto gli occhi equivale a togliere quel determinato codice). Questo si può fare solo nel digitale e
non nell'analogico.
In base a come vengono comunicate le informazioni si ha:
sistema di comunicazione analogico sistema di comunicazione digitale
trasmissione di informazione attraverso trasmissione di informazioni con
impulsi elettrici che le trasmettono sequenze numeriche discontinue.
in maniera continua.
Il sistema digitale ha comunque vantaggi e svantaggi:
Vantaggi:
- si diminuisce il rumore all'interno del canale: verrà meno in pratica l'interferenza interna, cioè il
problema nel canale. Sarà un disturbo esterno (es. il tram che passa).
- si comprime la quantità di informazione trasmessa
- si aumenta la velocità di trasmissione (es. ADSL)
- la comunicazione avviene tramite macchine (es. PC)
- le informazioni sono tutte codificate allo stesso modo quindi è possibile la convergenza tra
differenti sistemi di comunicazione (Jenckins)
- è possibile aumentare l'archiviazione di informazioni, con la conseguente possibilità di gestire le
informazioni (es. Google)
Svantaggi:
- rapporto con la realtà distorto
- decostruttivismo, linea di pensiero: ci sono molte realtà possibili e non ne esiste più una sola
lineare.
Iperrealismo: riproduzione in serie della stessa immagine(serialità). La riproduzione somiglia molto
all'oggetto ma non è più lo stesso oggetto di partenza: sono tante copie,