Riassunto esame Linguistica computazionale, prof. Di Sparti, libro consigliato Ipertesto Sermo Communis, Di Sparti
Anteprima
ESTRATTO DOCUMENTO
anzitutto un’estensione dei nostri copri e dei nostri sensi. Quando siamo privati della
vista, gli altri sensi ne assumono in certa misura le funzioni.
Più che media singoli, simbiosi di multimedialità
Ogni nuovo medium deve trovare la propria collocazione all’interno della struttura
economica, sostituendo o aumentando le possibilità di scelta disponibili; l’accettazione
popolare, e di conseguenza il successo economico, può giungere solo convincendo i
consumatori che il nuovo medium migliora le esperienze di quelli precedenti. Allo stesso
tempo, il successo economico di coloro che lavorano allo sviluppo della nuova tecnologia
deriva dallo status che il nuovo medium acquisisce nel tempo. Allo stesso modo, la piena
comprensione che l’industria dell’intrattenimento manifesta nei confronti della rimedi
azione come trasposizione (riposizionamento) svela l’inseparabilità dell’aspetto economico
da quello sociale e materiale.
Il termine “remediation”
Più recentemente è stato introdotto e discusso il concetto più tecnico di “remediation”.
Il termine è ambiguo e anche difficile. Da un lato riporta all’area semantica di rimedio (dal
latino “remedium”) e quindi indirizza nell’area di “rimediare” ad una deficienza. Secondo
Bolter e Grusin l’adozione del termine è funzionale ad esprimere il modo in cui il medium è
interpretato dalla nostra cultura nell’atto di riformarne o migliorarne un altro. In questo
momento storico la rimedi azione è la convenzione predominante che lavora per la
costruzione dell’identità dei nuovi media digitali. La nostra cultura concepisce ogni
medium come qualcosa che risponde a, ridispone, compete e riforma altri media. Quella
che proponiamo è una genealogia di affliliazioni nella quale i mezzi di comunicazione più
vecchi possono anche rimediare quelli nuovi 1) prevalenza della funzionalità o della
funzione che svolge rispetto alla “verginità” della tecnologia 2) rimediazione come
remediation (mutuazione e variazione per ibridazione da un altro media) 3) rimediazione
come rimedio ai buchi e alle insufficienze. PaulLevinson utilizza il termine “rimediazione”
per descrivere come un medium ne riformi un altro, affermando una forma teleologica,
quasi i mezzi di comunicazione si sviluppino antropicamente e cioè per ricordare lo
sviluppo di forme umane, esseri umani inventano nuovi mezzi di comunicazione con lo
scopo di superare i limiti posti loro da quelli precedenti.
Due logiche: immediatezza e ipermediazione epistemologico,
L’immediatezza può essere inteso in due sensi, uno secondo cui
immediatezza significa trasparenza, assenza di mediazione di qualsiasi tipo di
psicologico,
rappresentazione, e in senso dove immediatezza è sensazione dello spettatore
che il medium è scomparso e gli oggetti sono sotto i suoi occhi. Nel primo caso è implicito
che il medium possa cancellare se stesso, lasciando lo spettatore alla presenza
dell’oggetto rappresentato, favorendo cosi l’esperienza dell’oggetto,nel secondo si
definisce l’esperienza come autentica. Anche il termine ipermediazione ha due
corrispondenti significati: in senso epistemologico significa opacità, cioè conoscenza del
mondo tramite i media; il significato psicologico è l’esperienza che lo spettatore vive in
presenza dei media e della presenza dei media; è l’insistere sul fatto che l’esperienza del
medium è essa stessa un’esperienza della realtà. Il richiamo dell’autenticità
dell’esperienza è ciò che tiene insieme la logica dell’immediatezza e dell’ipermediazione.
Come nella lingua: drift, economia, funzione
Come nelle lingue, un media non agisce isolato,vive in una situazione di competizione con
gli altri media, spesso attiva complicità e cooperazione, talvolta li vampirizza, in modo da
affermare la propria presenza a danno degli altri, riducendone il territorio e la
funzionalità, nonché la frequenza d’uso. Questa considerazione si collega
particolarmente con le teorie di linguistica quantitativa di A. Martinet secondo cui le
parole sono in un perenne stato di competizione a livello di struttura globale di lingua e al
livello individuale o comunitario di uso per rispondere alle esigenze di economia d’uso
proprie degli utenti di un particolare periodo e situazione storica. E’ questa
corrispondenza che rende le parole vitali, le trasforma o le lascia “morire”. Nel caso
dell’ipertesto questa situazione sii rende più complessa perché le stesse dinamiche si
applicano ai media hw e sw ed all’uso sociale che lo caratterizzano. Si articola sulle
seguenti caratteristiche:
la sua natura di strumento comunicativo è volatile, sempre in bilico tra esigenze di
- economia funzionale dell’utente e refrattarietà dei media e dei codici, non sempre
docili alle esigenze avvertite dall’utente. Il meccanismo di trovare un compromesso
favorevole alla pigrizia dell’utente e alla adeguatezza dell’azione comunicativa ne
rende spesso spasmodica la ricerca di variazioni nella sua struttura e nelle sue
modalità d’uso;
questo essere in balia tra utente e scopo comunicativo ne determina la condizione
- di instabilità e di
esposizione costante alla variazione.
Ogni media per essere utilizzato, si propone come strumento più adeguato e più
economico dell’altro. Succede che tale concorrenzialità può assumere la forma
dell’invasione del territorio di un media, della cooperazione, della ibridazione, o della
vampirizzazione.
A cosa stare attenti lavorando con un media e con gli ipertesti, le esigenze funzionali
- tensione al massimo della capacità espressiva e di costo cognitivo e operativo: il media
tende a dare sempre di più semplificando al massimo il ruolo dell’utente (principio di
economia funzionale espressiva)
- progressiva procedura di semplificazione delle operazioni e delle procedure e tendenza
ad aumentare o raffinarne le funzioni
- adeguatezza (progressiva, uno strumento che si presenta come più adeguato rispetto ai
predecessori)
- tendenza all’universalità: tende ad essere utilizzato da un numero crescente ,
potenzialmente infinito, di utenti.
- implicazioni e costi economici: un media si afferma se costa poco, se i vantaggi che
offre hanno un costo economico conveniente e abbordabile
- ogni media tende ad amplificare i benefici sociali derivanti dal suo uso sempre
concorrenza con gli altri
- ha un consistente impatto cognitivo in termini di metacognitività e di operazioni
metalinguistiche.
I nuovi media non necessariamente prendono il posto di quelli precedenti perché il
processo di riforma e di trasformazione è reciproco, possono anche migliorare una cosa
già buona, evidenziandone vuoti, lacune, lentezze funzionali. Ogni nuovo medium trova
una sua legittimazione perché riempie un vuoto o corregge un errore compiuto dal suo
predecessore. Il significato sociale e cognitivo dell’ipertesto non rimane quello dell’inizio;
oggi è un’altra cosa. In alcuni casi le potenzialità possono emergere solo lentamente, in
relazione all’evoluzione e alle trasformazioni dello strumento tecnologico (cosi come è
accaduto alla radio e al telefono. E’ possibile instaurare una varietà quasi infinita di
relazioni culturali con i media gia esistenti: l’unica cosa che sembra impossibile è l’assenza
totale di queste relazioni.
Da un media ad un altro: traduzione o trasposizione
L’industria dell’intrattenimento definisce il processo di trasposizione come riversamento
di un tipo di contenuto conosciuto dal pubblico all’interno di una nuova forma mediale.
L’obiettivo non è quello di sostituire forme mediali precedenti, di cui si possiedono i
diritti, ma piuttosto di diffondere il contenuto nel maggior numero possibile di mercati.
Ognuna di queste forme avanza la tacita pretesa di offrire un’esperienza che le altre
forme non possono offrire. Il processo non riguarda il contenuto soltanto ma la
riconfigurazione di tutti i componenti degli atti comunicativi. La struttura dell’ipertesto
non è statica, può essere colta nei suoi aspetti cangianti solo se colto nella costante
opera di rimediazione a livello di supporti e di software, soprattutto in termini di
metacognitività. L’ipertesto è cambiato perché rispetto alle origini o alle fasi intermedie
del suo sviluppo, il suo sostrato mediale è cambiato (ibridazione, remediation
domestication) nell’hardware, nel software; perché gli utenti ne hanno modificato gli usi o
le loro modalità, perché il suo media contenuto è stato modificato.
CAPITOLO 6 LE INTERFACCE
UNA FACCIA PER IL COMPUTER
Quando si parla di interfaccia, si indica l’organizzazione grafica delle schermate del
computer in cui sono contenuti potenzialità e dati necessari a consentire l’interazione
dell’utente con il computer, finalizzata alla realizzazione di compiti definiti.
L’interfaccia è intesa come insieme delle modalità dell’interazione uomo-utente. La
rivoluzione che ha fatto del pc uno strumento di massa, è stata determinata
dall’abbandono dell’interfaccia che prevedeva comandi e messaggi linguistici scritti in
ordine sequenziale (step by step), in favore dell’adozione di un’altra di natura grafico -
simbolica ispirata ad un gruppo misto di allegorie, paragoni o metafore come per esempio
quella delle finestre (windows) o della scrivania (desktop).
La storia sociale dell’informatica è scandita dalle interfacce utilizzate e dalle modifiche
che hanno determinato il rapporto con l’utenza.
Dietro ad ogni sistema operativo o ad una applicazione c’è un’interfaccia (o un sistema di
interfacce), cioè un insieme di modalità operative orientate su un tipo di utente finale
(“utente modello”) e su un’ipotesi/obiettivo di ottimizzazione dell’uso di abilità cognitive.
Ad indicare la strada non deve essere il software autonomo del computer, bensì l’utente
con le sue conoscenze acquisite prima dell’impatto con l’utensile e con le attività che si
prefigge compiere, facilitato dalla macchina. La validità dell’interfaccia dipende dalla
capacità di rispondere alle aspettative dell’utente, ottimizzandogli lo svolgimento del
lavoro da compiere.
Un primo momento di sviluppo è quello delle interfacce “letterali”. La comunicazione con
i mainframe avveniva in una forma scritta (digitata sulla tastiera e vista sul terminale), con
messaggi e comandi espressi in una lingua rigidamente codificata; non era simultanea o
immediata, perché tra le battute uomo-computer c’era sempre un ritardo fisico. La
sensorialità umana presente nell’interazione era scarsa dato che era ridotta alla semplice
visione alfabetica di testi, disposti in modo seriale come in una pagina di un libro. Il
mondo lineare e sintattico delle lingua pervadeva gli apparati e le procedure cognitive
dell’utente. Tutto implicava l’osservanza scrupolosa della procedura, “ubbidienza” alle
leggi volute dal sistema, l’esecuzione. Una gerarchizzazione estrema della dipendenza
dalla macchina.
L’introduzione delle GUI determinò un trend industriale: alla sequenzialità degli elementi
conversazionali si sostituisce la globalità dei menu, nasceva il tocco magico del click in
tutte le sue varietà (semplice, doppio, sinistro, centrale). Si chiude l’epoca esplicita della
parola e si apriva quella del gesto.
suite
La più comune della Microsoft si chiama “Office”. Le applicazioni altre furono
considerate sottoprodotti o prodotti per nicchie di utenti . la dipendenza dalle macchina
tendeva a diminuire mentre crescevano le potenzialità interattive offerte.
Finì il dominio della sequenzialità e inizia il recupero di tempi “umani” nello svolgimento di
un compito: venivano offerte possibilità di gestire con comodo interi documenti , dando
la possibilità di spezzettare il lavoro in porzioni più comode e con un numero di tentativi
più ampio.
Questo insieme di innovazioni si rivelò un salto incredibile negli aspetti tecnici e nella
filosofia sociale dello strumento. E le GUI metaforizzate, iconiche e simboliche,
mettevano finalmente in primo piano l’aspetto internazionale presente nell’operare su un
computer o con un computer.
La richiesta di attenzione alla multisensorialità avanzata dallo sviluppo della
comunicazione audiovisiva (cinema, televisione, intrattenimento) trova risposta nelle
interfacce multimediali
Nello sviluppo dell’interfaccia grafica era evidente l’influsso dei moduli comunicativi della
stampa, in quello dell’interfaccia multimediale è soprattutto la televisione che fa da
punto di riferimento. Lo sviluppo tecnico audio e video si fa sempre + rapido, riducendo i
costi e rendendo popolari le tecniche di accesso e di uso.
L’ultima ri-mediazione è quella del telefono con il computer, che ha reso possibile il
superamento delle barriere spazio-temporali nella comunicazione. L’interfaccia
multimediale cambia radicalmente visto che è possibile interagire anche con fonti
comunicative presenti solo virtualmente.
guidelines,
Prolificano le le guide più o meno specifiche. Il web più che strumento è
ambiente cognitivo.
L’interfaccia ha il grande merito di aver spostato l’attenzione dalla macchina all’uomo-
utente, dal come funziona la macchina a come l’utente può realizzare i suoi compiti. Ha
ridato centralità all’uomo e all’utente.
I problemi dell’interfaccia conoscono momenti di particolare lucidità quando il computer
si avvicina al bambino: in questo modo le modalità educative del mezzo risultano più
evidenti e il rapporto tra macchina e sistemi cognitivi (cervello, mente, intelligenze,
sensibilità) si presenta più complesso. Il computer assume la sua funzione di artefatto
cognitivo, messo in relazione con le varie forme di intelligenza e con le tappe dello
sviluppo dell’intelligenza. Quello dell’interfaccia si presenta come problema di
comunicazione: è il luogo in cui viene definito l’altro. In questo caso, l’altro è un utente
che vede la propria immagine riportata sullo schermo e che diventa la faccia dell’altro.
L’interfaccia è l’incontro di due facce e di due rappresentazioni e proiezioni di se. Capire
l’altro e leggerne i segni sul proprio volto. Lo schermo è la faccia, quello che vi vediamo è
quello che il computer ci comunica.
La comunicazione è concentrata sulle facce e sulle metafore che le esprimono. La faccia
del computer non è altro che una versione speculare riflessa della nostra. La macchina è
sempre proiezione di se: vi vediamo solo una nostra faccia.
APPROSSIMAZIONI METODOLOGICHE
La definizione tecnica di interfaccia mette in risalto come essa sia un luogo di incontro e
di contatto in cui viene organizzata l’attività degli utenti e del computer per il
completamento dei compiti.
Viene indicato tutto ciò o è stato predisposto per consentire la comunicazione uomo-
macchina o uomo-computer. Il luogo è un ambiente di lavoro strutturato in sottospazi
finalizzati alla realizzazione di compiti particolari.
La presenza in un ambiente può presentarsi come semplice contingenza legata al disbrigo
di una pratica, presenza strumentale per gestire gli aspetti di un’attività lavorativa,
oppure può essere immersione in un ambiente virtuale, per attività di comunicazione, di
contatto personale e sociale.
Abbiamo indicato come l’interfaccia svolga una funzione di specchio, luogo in cui ci si
specchia e ci si esibisce. Anceschi propone l’adozione di una doppia prospettiva:
semiotico-progettuale, l’una, con ampio riferimento alle teorie della comunicazione
applicate al design, l’altra orientata in senso ergonomico-cognitivo ma di natura
informatica.
Privilegia innanzitutto il principio che possa dare coerenza e consistenza agli elementi
attivi nell’interazione. Il design di interfacce consiste nel configurare le superfici, le zone
e anche le atmosfere dell’adattamento fra corpo dell’uomo e apparecchiatura. Il corpo è
inteso qui come porta percettiva della mente.
Cooper suggerisce di introdurre la distinzione di tre classi di interfacce di natura
referenziale, metaforica, simbolica e idiomatica (convenzionale). L’approfondimento della
definizione di interfaccia è avvenuto in due direzioni: nella prima si fa riferimento al
quadro globale dell’ HCI (generica, design dell'oggetto quotidiano, artefatti cognitivi).
HUMAN-COMPUTER-INTERACTION
Il termine indica lo studio delle relazioni tra utenti umani e sistemi di computerizzazione.
In inglese è conosciuta con le sigle CHI (computer-human interaction) e HCI (human-
computer-interaction);
il primo principio comune a tutte le forme di HCI è quello di fondare l’interfaccia su una
più accurata comprensione dell’utente umano e del sistema informatico, in modo da
rendere più agevoli e soddisfacenti le interazioni tra i due.
Particolare attenzione è posta sull’articolazione del compito (task) da svolgere, si cerca di
scomporli in parti o di trasferirne l’applicazione su altri task. L’uso del computer deve
rendere più agevole lo svolgimento del compito rispetto allo svolgimento puramente
manuale.. computer studies.
HCI a livello accademico rientra nei corsi di design o anche di Il
linguaggio che l’HCI utilizza può essere basato su comandi linguistici o su azioni associate
ad icone o parole. Nella ricerca di un’interazione che riduca al massimo l’errore di
principio assoluto è quello di preferire la cliccabilità alla digitazione, sia per il minor
numero delle occasioni di errore, sia per una maggiore mnemonicità legata anche ad una
memoria visiva. Il selezionare e cliccare è diventato il momento conclusivo e importante
delle singole fasi di una procedura. L’interfaccia HCI non è data solo da segni iconici e
linguistici, ma risulta dall’integrazione di strumentazioni hardware e software.
Si rimprovera all’interfaccia un carattere di passività: bisogna rendere attivo e sicuro
l’utente, facilitandogli l’esecuzione di operazioni che vuole o deve fare. Uno dei fastidi
che si prova spesso nell’uso di un applicativo è quello dell’eccessiva abbondanza di scelte
che offre e che impone.
Uno dei requisiti fondamentali è la flessibilità. Non esistono regole universalmente valide
per risolvere un problema. Il rischio è quello di non essere in grado di offrire il massimo di
super-user
offerte e di opzioni a un o un esperto, o di terrorizzare un utente che vuole
poco con una valanga di opzioni.
DALLE INTERFACCE DEGLI OGGETTI QUOTIDIANI AL DESIGN EMOZIONALE
Lo sviluppo delle interfacce è caratterizzato da una serie di ritardi. Inizialmente è
particolarmente attenta a seguire lo sviluppo fisico delle potenzialità delle macchine con i
software che segue e che si adatta a quest’ultimo. Il ruolo possibile delle esigenze
dell’utente appare secondario: i desideri di questi non incidono sullo sviluppo possibile.
L’inversione di questa tendenza viene determinata dalla presenza del ruolo della
psicologia cognitiva, orientato a soddisfare le esigenze cognitive degli utenti a cui
macchine e software sono destinati. Quest’influenza è la sezione leader della teoria delle
interfacce.
Il primo ritardo lo si individua nella tendenza ad attenersi ai modelli cognitivi impliciti o
che esprimevano le pratiche di programmazione dei computer degli anni 60-70. Il modello
era influenzato da una logica linguistica, seriale e sequenziale (diagrammazione a blocchi
e procedure “step by step”). Va rilevata la priorità a soddisfare le richieste del mercato,
predominanti, delle attività gestionali e amministrative che hanno consentito molto spazio
per lo sviluppo di software grafico o iconico e multimediale. La programmazione grafica
in particolare si presentava molto complessa. L’esigenza di dare un ruolo maggiore alla
comunicazione audiovisiva e grafica veniva diffusa tra gli utenti dallo sviluppo e dalla
diffusione di una cultura audiovisiva a opera dei nuovi media di massa (cinema,
televisione, editoria).
Un altro ritardo riguarda l’approfondimento culturale delle implicazioni della diffusione
delle nuove tecnologie. Queste barriere sono state spezzate dallo sviluppo delle teorie
funzionaliste del design degli oggetti elettronici quotidiani, delle GUI e dell’HCI e,
soprattutto, con un’attenzione maggiore alla multisensorialità e alla multimedialità
dell’uomo nella sua vita quotidiana.
Nella storia delle interfacce un ruolo significativo ha avuto Donald A. Norman.
The psychology of evertyday things
Il suo ha spinto al massimo il funzionalismo nel design
degli oggetti quotidiani e lo ha esteso alla progettazione delle GUI e dell’HCI
usability.
contribuendo alla nascita dell’ La sua è stata una crociata per i diritti
dell’utente, della sua centralità. Norman perviene alla formulazione di questi principi
consumer satisfaction
dall’attenzione per le regole del marketing che fa della la regola
della comunicazione.
L’OGGETTO COME INTERFACCIA
Il punto di partenza della teoria di Norman è che l’interfaccia deve servire all’utente per
un uso trasparente (cioè immediatamente comprensibile con le conoscenze comuni che
ognuno possiede, senza apprendistato di nuove conoscenze) di un oggetto, o di uno
strumento per compiere una task normalmente svolta senza di esso. Il ricorso dello
strumento deve essere cognitivamente economico. Occorre ridurre il costo cognitivo,
economico ed emotivo che il ricorso allo strumento comporta per renderlo conveniente.
L’uso e la scelta di un oggetto sono determinati da un insieme di fattori diversi, che
possono cambiare a seconda delle circostanze esterne o dagli umori emotivi dell’utente.
La gamma dei significati di un oggetto oscilla tra quelli utilitari (l’oggetto viene visto nella
sua funzionalità di strumento associato a modalità d’uso) e quelli individuali che risultano
proiezioni di una storia personale (ricordi, sensazioni, allusioni).
Il design e il progetto devono esprimere non l’estro creativo del progettista, ma la risposta
ad un bisogno del destinatario. Non è detto che un design attraente debba
necessariamente essere il più efficace. I motivi delle valutazioni e dell’acquisto di un
prodotto possono essere funzionali o decorative a seconda del contesto d’uso.
L’interfaccia è il luogo del contatto tra due entità, caratterizzato con le modalità
contrattuali utente-strumento-compito che ne regolano l’attività.
Secondo Norman sono tre i principi che regolano il design negli oggetti quotidiani:
1. il carattere sistemico dell’interfaccia che focalizza l’attenzione sulla “rete
complessa” degli oggetti che costituiscono il contesto d’uso: ogni oggetto non
costituisce un’entità a se, ma è legato agli utenti, situazioni d’uso, scopi;
2. la priorità assegnata all’utente e ai compiti da svolgere rispetto a tutto l’insieme
dei fattori garantisce la riuscita funzionale dell’interfaccia;
3. la non identificazione del progettista con un utente-modello: un problema visto
dal programmatore appare completamente agli occhi di coloro che svolgono tale
attività professionalmente. Il progetto deve spostarsi sul comunicatore-
progettista, che tende a privilegiare se stesso e le proprie centralità alle funzioni
da compiere e all’utente che le deve compiere. Il design è un’attività complessa per
la complessità dei bisogni della gente.
IL SISTEMA DEGLI OGGETTI
INTERFACCE, ARTEFATTI COGNITIVI
Nella tipologia degli oggetti un ruolo specifico è svolto dai cosiddetti “artefatti
cognitivi”. Sono diversi dagli oggetti comuni perché intesi nella loro natura di macchine
simboliche rappresentazionali con obiettivi di conoscenza.
L’artefatto varia a seconda del compito e della bravura dell’utente. Migliorano le
potenzialità cognitive umane a livello di memoria, di quantità e di qualità di elaborazione
delle informazioni.
Nello sviluppo delle interfacce viene ribadita la necessità di curare la conoscenza del
compito da svolgere e la sua possibile articolazione in parti.
Il meccanismo funzionale dell’artefatto sta nella traducibilità di un compito in un altro
che lo sostituisce con maggiore efficienza ed economia. Quando un compito viene
sostituito da altri o compiuto per mezzo d’altri, tale operazione di “traduzione” implica
una riprogrammazione dei requisiti cognitivi differenti. L’artefatto cognitivo consente di
poter scegliere tra le modalità esecutive di un compito o di un’azione. È un aspetto
importante perché è possibile tradurre compiti di una natura complessa o che
presuppongono abilità particolari, in altri che sono analoghi al primo e hanno una
computabilità più agevole o possono essere scomposti in parti e quindi più facilmente
eseguibili. Viene ampliata e sfruttata la capacità rappresentazionale dell’artefatto e la sua
abilità a tradurre una rappresentazione in un’altra più conveniente. La scelta delle
rappresentazioni permesse dall’artefatto influenza l’interazione della persona nell’oggetto.
Lo stile e il formato dell’interfaccia determinano l’usabilità dell’artefatto, trasformano e
traducono le caratteristiche rappresentazionali dell’artefatto con quelle della persona.
La validità di un processo rappresentazionale dipende dal grado di uguaglianza tra
oggetto e fasi di elaborazione e di rappresentazione. Il massimo di forza di un’interfaccia
lo si raggiunge con la sua massima naturalezza rappresentazionale; ciò si verifica quando
la similarità dei processi è massima e la comprensione immediata.
Una conoscenza anticipata aiuta a cogliere l’articolazione e la comprensione dell’intera
azione.
INTERFACCIA EMOZIONALE E ROBOT
Nell’ultima fase della teoria delle interfacce, Norman definisce l’ultimo aspetto, quello
che ha chiamato “emotional design”. La consapevolezza che la funzionalità e l’efficienza
non sempre sono sufficienti a guidare o a determinare la nostra scelta di un oggetto tra
gli altri concorrenti, lo porta a recuperare gli aspetti emozionali nell’uso degli oggetti e
delle interfacce.
Norman ammette che la prevalenza data agli aspetti cognitivi e di usabilità ha messo da
parte l’aspetto estetico ed emozionale della comunicazione per mezzo di oggetti.
Il significato di un prodotto viene articolato su tre dimensioni:
visceral (la sua forma e il suo impatto iniziale);
o behavioral (piacevolezza ed efficacia d’uso);
o reflective (la razionalizzazione e l’intellettualizzazione del prodotto)
o
nella vita di ogni giorno si intrecciano tra loro in termini di emotività e cognitività. Tale
struttura consente di individuare anche tre tipi di consumatori: l’utente che si basa
fortemente sulle apparenze, quello che preferisce usabilità, funzionalità e che tende a
mantenere il controllo sull’uso dell’oggetto, e quello che basa la propria preferenza
pesantemente su nome, marca e prestigio, ovvero sul valore aggiunto del prodotto in
termini di autostima.
OPPOSIZIONE TRA EMOZIONE E CONOSCENZA
Secondo Norman, la macchina non è che debba sentire le emozioni, ma deve saperle
riconoscere e simulare, o produrre un comportamento confacente al contesto emotivo in
cui avviene l’interazione.
PRINCIPI
Nel progettare lo schema interattivo dell’interfaccia occorre partire dalla consapevolezza
che il modo di vedere il compito da realizzare è differente, a seconda che prevalga il
punto di vista dell’utente o del progettista. Mentre il progettista ha una visione globale e
complessa del compito, l’utente preferisce una focalizzazione esclusiva sull’esecuzione
del compito. Ciò significa interpretare e tradurre il compito originario in un altro o in
altri, qualora il primo possa essere sostituito o realizzato con procedure più semplici per
l’utente. Le basi di un’interfaccia efficace stanno in questa capacità di
reinterpretazione.
Nel progettare l’interfaccia è essenziale l’individuazione di una metafora che possa
spiegare bene l’insieme delle operazioni da compiere. La progettualità dell’interfaccia
presuppone nel progettista una serie di conoscenze e di consapevolezze che possono
trovare aiuto nella mataforizzazione, nella diagrammatizzazione e nella sua visualizzazione
iconica. processualità
La sistematicità implica una specifica: l’applicazione di questo principio
permette all’utente di usufruire di:
precomputazione
una che consente di diluire nel tempo le operazioni preliminari
a) richieste dallo svolgimento effettivo del compito; in questo modo è possibile
ottenere una conoscenza preliminare delle richieste del compito;
conoscenza distribuita e socializzata
una superando le limitazioni personali e
b) consentendo l’ausilio di competenze e di esperienze differenti, virtualmente
disponibili;
riformulazione del compito
della nella sua architettura globale e nel trasferimento
c) funzionale di sue componenti o fasi. Questo si traduce in un’economia di costi e di
efficacia.
Collegato a questo aspetto è quello della rappresentazionalità: le conoscenze richieste o
scambiate nel processo di interfacciamento possono essere espresse su sistemi o con
segni di rappresentazioni differenti; possiamo accedere ai dati scritti in formato binario
traducendoli in formati alfabetici o iconici più facilmente leggibili. La rappresentazione
dipende dalla scelta delle interazioni con lo strumento (pc): una mediazione diretta tra
persona e oggetto, o tra funzioni e attività della persona.
Il bisogno dell’interfaccia nasce dalla necessità di mediare una rappresentazione interna
alla macchina con l’utente non specialista (lo schermo) che adatta le caratteristiche
rappresentazionali dell’artefatto con quelle della persona. mapping
L’aspirazione maggiore nel creare rappresentazioni è quella di avere un completo
tra oggetto voluto e modalità delle rappresentazioni. Tra gli schemi delle rappresentazioni
e l’utente esiste una barriera, quella dei simboli utilizzati. La gamma di rappresentazioni
offerte influenzano l’interazione tra persona e strumento.
Anceschi da un’organizzazione diversa degli elementi che controllano la processualità
tecnologie dell’interfacciamento
dell’interfaccia, distinguendo le (con l’uso di strumenti
pilotaggio dell’interazione e delle interconnessioni o i gradi
come le periferiche) il
dell’interconnessione, decidendo fino a che punto lo strumento debba essere considerato
tale.
Nella varietà di interfacce possibili un’altra proposta è quella di vedere il computer come
messa in scena di ruolo. implicito/esplicito
L’ultimo aspetto è il nesso nelle conoscenze che dev’essere riferito alle
conoscenze “naturali”, apprese senza un addestramento specifico e assorbite e sviluppate
nel sistema cognitivo. Le cose che sappiamo senza che ce le abbiano insegnate sono
tantissime, e l’orientamento cognitivista oggi diffuso ci spinge a farne un uso sempre più
vasto.
LINGUISTICA E TEORIE SULL’INTERFACCIA
Due tipi di problemi riguardano il rapporto tra le forme delle varie conoscenze e la loro
standardizzazione in un sistema. L’elemento più ricorrente è quello delle intelligenze
legate alla multisensorialità e alla multimedialità. Il secondo aspetto riguarda il rapporto
tra conoscenza implicita e conoscenza esplicita. Il richiamo è alla loro naturalità: nella
vita quotidiana utilizziamo una conoscenza implicita in modo significativo.
pidgin
Erickson studia il concetto di “pidgin”: la lingua nasce come strumento
comunicativo tra appartenenti a culture e lingue differenti, e viene creato semplificando
al massimo la lingua attraverso la riduzione o l’assenza di qualsiasi forma di flessione
morfologica e attraverso il ruolo assegnato al lessico. creolizzazione,
Altro elemento della dinamica linguistica è quello della un processo che
consente al sistema di arricchire la sintassi delle sue parti costitutive (nelle lingue creole
nascono dei sistemi di flessione nominale e verbale). Tale arricchimento avviene in
funzione del numero crescente di esigenze a cui il sistema si trova esposto. Da questa
metaforizzazione linguistica dell’interfaccia viene evidenziato il ruolo di strumento di
contatto definito dalle esigenze specifiche degli utenti in una ristretta area comunicativa
privilegiando lo sviluppo finalizzato a singole task. In questo modo l’interfaccia può essere
vista come un linguaggio.
UNA METAFORA PER IL MIO REGNO
Il momento più innovativo nell’evoluzione dell’interfaccia è stato quello dell’adozione di
un modello analogico capace di fornire all’utente (GUI “graphic user interface”) la
visualizzazione delle azioni possibili. Il flusso seriale della comunicazione fu spezzato con
l’introduzione di bivi metaforici, in cui era impossibile fermarsi il tempo necessario per
avere un quadro globale di possibili scelte; furono rese possibili forme di linguaggio
gestuali (pointing clicking), in sostituzione del flusso lineare linguistico con un diverso
orientamento dei processi cognitivi coinvolti. L’introduzione fu suggerita da studiosi
come Engelbart e riguardò un insieme di innovazioni (GUI, mouse, multimedia). Risulta più
marcato il principio della necessità di adeguarsi all’utente.
Il passaggio ad una strategia user-oriented ha finito con l’imporre come criterio principale
delle scelte la soddisfazione del consumatore e delle esigenze del mercato, con la
conseguente necessità di adattare l’oggetto/strumento all’utente finale: è una tendenza
che ci ha portato alle norme si usabilità e accessibilità; l’obiettivo è quello di rendere
invisibile l’oggetto all’utente in modo che questi possa procedere allo svolgimento del suo
compito senza una conoscenza e attenzione specifica allo strumento o al suo linguaggio,
facendo ricorso unicamente alle conoscenze “naturali”.
Le abilità umane a cui si fa riferimento sono quelle fisiche, legate ai cinque sensi, e quelle
visualizing)
mentali. Un problema centrale è quello della traduzione visiva (
frames
dell’informazione linguistica e scritta, mirando a compattare informativi,
caratterizzati da un ruolo crescente attribuito alle attività di messa in evidenza e di
orientamento del processo di lettura e di comprensione dell’utente. La prevalenza
dell’analogico e dell’iconico nella creazione delle interfacce ha raggiunto il suo culmine;
l’interfaccia grafica raggiunge le finalità di apprendimento e di uso in processi didattici.
Alan Cooper arriva a considerare l’idea del ricorso alla metafora come punto di partenza
nella progettazione di interfacce; le sue motivazioni sono i limiti di una perfetta
riconoscibilità della metafora, la differenza nella percezione dello strumento, la penuria
di buone metafore e quindi la necessità di dover usare altri metodi. Per Alan Kay, padre
Xanadu,
del termine “ipertesto” e progettista di l’uso di metafore ha una valenza
eccessivamente restrittiva e va a coprire lacune da addebitare a mancanza di creatività,
indicando nell’area dei giochi e delle simulazioni il luogo della migliore sperimentazione di
Smalltalk
interfacce. Più pesante il giudizio dell’inventore di che critica l’uso della
metafora del desktop e ne mette in evidenza l’incapacità di rappresentare l’ordine della
propria scrivania personale.
I vantaggi che si attribuivano alla metafora stavano nella sua capacità di sostenere e di
agganciare l’intelaiatura dell’interfaccia. La magia della metafora appariva deduttiva nella
sua capacità di rendere quasi automatico l’apprendimento, con la trasposizione del nuovo
da apprendere in circuiti concettuali già conosciuti.
Le giustificazioni teoriche proposte inizialmente furono di tipo linguistico, mentre
successivamente prevalse un atteggiamento cognitivista; nel primo caso, il riferimento
costante è alla metafora come strumento cognitivo proposto da Lakoff e Johnson,
mentre più specialistico è quello alla pidginizzazione e creolizzazione delle lingue
(Bickerton).
Nel primo caso prevale una visione pervasiva della metafora, presente e attiva in tutte le
attività rappresentazionali della conoscenza e mediatrice tra la mente e il mondo esterno.
Il meccanismo fondamentale della metaforizzazione, consiste nel ricorso a conoscenze
organizzate per indicare esperienze o nel formulare concetti astratti. È una forma
economica di conoscenza che consente di sfruttare qualcosa di già conosciuto.
L’implicito cognitivo dal conosciuto viene trasferito direttamente al non conosciuto;
questo processo analogico consente di valutare la capacità cognitiva della
metaforizzazione. I vantaggi immediati sono soprattutto nell’invisibilità del processo di
traslazione del significato; il ricorso a conoscenze implicite incluse nel quotidiano e in
genere veicolate da forme linguistiche e da forme iconiche della comunicazione
audiovisiva, televisiva.
La metafora consente di anticipare il processo di acquisizione con il ricorso a
informazioni già conosciute, di ricordare rispetto all’imparare e di usare forme mediate e
perciò semplificate.
Altro vantaggio della metafora è la capacità di dare coerenza a cose disparate, dando
loro sistematicità e senso.
Bisogna tener presenti le perplessità di Kay e di Nelson sui limiti di un completo
affidamento alla metaforizzazione: il gioco di novità e di organizzazione ha una sua forma
particolare al momento iniziale (first time users), ma tende a diventare sistema e
interviene una conoscenza esplicita e struttura. L’elemento di forza della
metaforizzazione sta nel numero di punti di contatto e di somiglianza che riesce a
stendere sotto la struttura semantica, e in questo sta anche il suo limite.
La metafora, rendendo visibile il contorno o la configurazione degli elementi o
utilizzando schemi cognitivi già in parte posseduti, svolge il ruolo di “previsione
anticipatrice”del contesto cognitivo.
I vantaggi di economia cognitiva e di strutture di apprendimento sono evidenti.
SIMMETRIA
Che speranze ha di fare bene il proprio lavoro il progettista la cui mente è rigidamente
analitica o chi ha resistenza verso la “creatività” della metafora?
La tecnica suggerita da Erickson, Cooper, Mountford è quella della descrizione
analitica delle uguaglianze o simmetrie che stanno nello svolgimento dell’operazione nella
sua realtà e quella presente nella rappresentazione utilizzata dal computer; la simmetria
può essere estesa a tutti i livelli. La differenza principale tra questa tecnica e quella
creativa si basa su intuizione e ispirazione. I vantaggi che offre questo modello di
interfaccia sono: l’uso di un framework concettuale che favorisce la coerenza della
configurazione globale; l’utilizzo di un ambiente di lavoro interdisciplinare e la sua
estendibilità indeterminata.
Questo sviluppo consente di poter cogliere le potenzialità espressive e didattiche della
role playing
creazione di ambienti di apprendimento e di lavoro fondati sul su tecniche di
drammatizzazione sviluppate da B.Laurel; in questo modo lo strumento diventa “messa in
scena” e l’attività diventa un role play drammaturgico.
TIPOLOGIZZAZIONE
Per quanto riguarda la tipologia dell’interfaccia, Anceschi ritiene che le definizioni
oscillino tra una iperestensiva (“l’interfaccia è l’incontro di due o più entità”) e una
iperspecifica (“l’interfaccia è un dispositivo tecnologico che interconnette due
apparecchiature”); la prima promette un’interazione molto stretta dell’organismo umano
con oggetti o con altre persone per mezzo di strumenti. Inoltre, indica che le finalità
delle interfacce determinano tipi di interfacce differenti: quelle fondate sulle finalità
epistemologiche che servono per fare e sapere; quelle per saper fare, anche quella che
recupera dimenticanze e quindi per far venire a sapere; e, infine quella che misura il
grado di interazione informatica tra utente e macchina.
Cooper propone di distinguere tre paradigmi:
technology paradigm,
un basato su un modello descrittivo della sequenza delle
o operazioni e della conoscenza dei progressi strumentali che le rendono possibili;
vengono spiegati il compito da svolgere secondo la procedura di elaborazione del
computer, i processi che ne rendono operative le parti, il processo di
apprendimento dell’utente fatto scorrere parallelo a quello del costruttore del
computer; in questo modo l’interfaccia si presenta come una replica di codici e
procedure;
metaphor paradigm,
un basato sull’intuizione di come le cose funzionano. Il
o successo di questo modello secondo Cooper è dovuto al fatto che le operazioni
sono ridotte e semplificate ad un nucleo compatto e omogeneo;
idiomatic paradigm: questa etichetta viene introdotta sulla base di un paragone
o tra i componenti delle GUI e l’uso di forme idiomatiche, proverbiali i figurate della
lingua di ogni giorno.
La comprensione reale viene appresa da una spiegazione, non è intuitiva. Le etichette
comode e significative conservano il valore di contenitori o di memorizzatori gratificanti
e piacevoli ma non riescono a dirci il significato e il funzionamento che dobbiamo
apprendere basato sull’apprendimento di come compiere le cose.
INTEFACCE PER APPRENDERE
I progettisti di software destinati all’apprendimento scolastico e a attività
extrascolastiche di intrattenimento, mettono fortemente in evidenza la diversità
learning styles
esistente nei dei bambini rispetto a quelli degli adulti: il bambino ha
un’interazione normale con il computer, quasi una continuazione del gioco (proviamo a
vedere cosa succede se…) senza difficoltà. Il computer può accrescere le opportunità di
apprendimento collaborativo in maniera incredibile.
Le modifiche sono riscontrabili nella creazione di una cultura differente da quella dei
genitori e insegnati; lo sviluppo di interfacce specifiche per bambini può diventare la
scorciatoia per interfacce per adulti: l’interfaccia deve percorrere i sentieri consueti
dell’apprendimento infantile.
Il menù viene a svolgere il ruolo di preorganizzatore delle attività, inserendo il singolo
atto in una configurazione di attività già conosciuta o in parte conosciuta.
QUANDO L’INTERFACCIA NON FUNZIONA
I difetti più comuni sono 3:
1. il fading, la perdita di attrattiva e l’abitudine create dalla routine d’uso, o da errori
di visibilità;
featuritis,
la quasi una vera e propria malattia, la tendenza di accrescere il numero
2. di funzioni e di opzioni. L’abbondanza non sempre è un fatto positivo, può
travolgere l’utente e diventare un ostacolo reale, creando il problema
dell’economia cognitiva e comunicativa dell’informatica di oggi;
metaphorics, l’enfasi eccessiva sulla metaforizzazione.
3.
Capitolo 7 – Un’interfaccia umana
Nelle scelte della vita non seguiamo sempre le indicazioni del ragionamento e
dell’efficienza; nella ricerca della qualità della vita non sempre l’efficienza è la strada
giusta.
Interfaccia umana secondo Jef Raskin
Scrive The Humane Interface, in cui meraviglia l’uso dell’aggettivo: il quadro di Raskin
intende aumentare l’usabilità del computer usando conoscenze operative già possedute
nell’assolvimento di altri compiti, aumentando l’operatività rispetto ai comandi di menu.
L’obiettivo di Raskin è quello di creare un computer e delle applicazioni capaci di aiutare
l’utente a fare qualcosa senza richiedergli conoscenze aggiuntive rispetto a quelle
comuni, in quanto non si è più disposti ad imparare cose complesse, il computer deve
essere uno strumento e non un oggetto che per il suo richieda apprendimento.
Il nuovo della prospettiva è dato dal porre al centro non l’utente (e quindi lo sviluppo di
un compito) ma l’umano dell’utente. L’interfaccia deve essere semplice non perché il
compito sia stato semplificato o perché sia stato adattato alla conoscenza dell’utente,
ma perché le interfaccia disegnano accordi con l’universo psicologico.
Ne derivano due leggi: una dice che il computer non dovrebbe danneggiare il tuo lavoro
o, attraverso l’inattività, permettere che il tuo lavoro diventi pericolo. L’altra dice che il
computer non dovrebbe far perderti tempo o richiederti più lavoro di quanto non sia
strettamente necessario.
La progettazione di un’interfaccia umana
Ciò si preoccupa che l’oggetto risponda a determinati requisiti per soddisfare le esigenze
dei consumatori. È una logica di marketing che è necessario correggere e integrare con la
globalità della persona umana nelle sue caratteristiche funzionali di conoscenza e di
comunicazione. Occorre quindi estendere ai punti chiavi della prospettiva di Raskin
l’insieme dei concetti di multisensorialità.
Assunto che il compito del computer è diventato quello di strumento di comunicazione,
occorre creare condizioni corrette per la comunicazione uomo – computer, non solo
sull’asse dell’usabilità, ma anche sull’asse dell’ecologia della mente, cioè sanità naturale di
interazioni tra persona e ambiente tecnico.
Diritto alla complessità
L’insistenza sulla facilitazione impedisce che la regolazione dell’uso dell’oggetto possa in
qualche modo non essere l’unico parametro di valutazione. Un uso facile è positivo per lo
svolgimento di un compito.
Deve esserci diritto alla complessità come condizione necessaria alla mente, perché a
lungo andare la facilitazione appiattisce la mente. Questo vale sia per l’adulto che per il
bambino, il quale irrobustisce la sua intelligenza anche con cose più complicate.
Queste richieste dovrebbero essere applicate anche alla rete, ma ciò sembra andare
conto i principi di usabilità. Alla fine però questo si rivela come impedimento alla
creatività e all’idee di miglioramento che ogni individuo ha. L’idea della semplificazione
assoluta mortifica le capacità di problem solving e impedisce che si sviluppi l’intelligenza,
al contrario deve stimolarla.
Nella comunicazione deve esserci complessità più usabilità, in risposta alle esigenze di
crescita della persona e della sua intelligenza.
Correttezza conversazionale
I due principi contrapposti di usabilità e complessità coinvolgono tutta la struttura della
rete comunicativa (Jakobson). L’usabilità mira a che sia il rispettato il rapporto lettore –
autore, ma l’utente deve essere protetto: da un lato non deve essere travolto da troppi
contenuti, dall’altro deve sempre essergli garantita la possibilità di scegliere e sottrarsi.
La misura nel rispetto di principi interazionali tra autore e lettore è dettata dal buon
senso e da indagini sulla soddisfazione dei clienti. Ma si possono utilizzare due gerarchie
di principi: i principi di cooperazione conversazionale di Grice e gli assiomi della scuola di
Palo Alto.
Il suggerimento di rispetto delle attese di complessità stilistica e creativa viene
confermato dalle massime che impongono il criterio “ne più ne meno” nella cooperazione
conversazionale: il tuo contributo alla conversazione sia tale quanto è richiesto, senza
darne in più.
Dalla scuola di Palo Alto viene l’invito a rispettare due tipi di comunicazione, quella
simmetrica e quella complementare. Il primo riguarda la comunicazione caratterizzata da
un rapporto paritario tra gli interlocutori e dall’utilizzo di modalità analoghe. L’altro si
fonda sull’accettazione di una relazione non paritaria per il ruolo comunicativo e gli altri
elementi di socialità (potere, interessi).
La scelta di uno o dell’altro modello, o eventuali forme miste, porta ad un rapporto
autore – lettore e ipertesto – lettore abbastanza diversi con evidenti ricadute sulla
progettazione e la realizzazione dell’ipertesto stesso.
Rispetto dei learning styles individuali
L’adattamento all’utente spesso comporta un appiattimento in modo da consentire al
maggior numero di persone di essere capite e di saper fare. Ma questa strategia livella in
basso le conoscenze e impedisce di accedere ad un apprendimento differenziato e
adeguato al proprio ritmo cognitivo.
Bisogna sempre tener conto degli stili cognitivi individuali e degli strumenti “naturali” che
l’utente possiede. Occorre sfidare l’utente anche in quello che non sa fare, in modo da
tirar fuori altre conoscenze e abilità. Tali stili cognitivi devono tenere conto delle risorse
multimediali e multisensoriali, della diversità delle intelligenze, le grammatiche d’uso. Ne
deriva anche che non si deve imporre un unico ordine progressivo per l’apprendimento
delle conoscenze né l’applicazione ossessiva dei principi di semplificazione, né dell’
“imparare solo quello che serve”.
L’interattività mittente – destinatario caratterizza in modo essenziale l’ipertestualità
web. I principi di Grice indicano una misura che esclude l’obbligo di utilizzare sempre il
massimo dell’interazione. Le sue modalità devono tener conto del contesto e delle
tattiche, del rapporto tra autore e utente, quella tra utente, strumenti e task da
compiere.
Si è insistito sul fatto che la conoscenza è sempre un sapere, che nasce da un apprendere
facendo e che diventa saper fare sviluppando abiti meta cognitivi da utilizzare in altri
ambienti.
Si pone il problema del raccordo tra metafora e iconismo nella comunicazione
ipertestuale e web. In questo caso la situazione si presenta più complessa per il bisogno di
verificare concretamente la metaforicità intrinseca di ogni interfaccia.
In breve, l’interfaccia umana deve tener conto delle varie forme di intelligenza e di
learnign styles, l’attivo ruolo dell’individuo nella costruzione delle conoscenze, anche nelle
cose banali di ogni giorno.
L’interfaccia si propone come luogo in opposizione al non – luogo, rifiuto cioè di un
ambiente che si crede valido solo perché replica di un modello (esempio del Mc Donald’s).
un’interfaccia per essere interfaccia umana non deve limitarsi a riprodurre la strategia
del Mc Donald’s, nel senso che non deve essere replica di un determinato modello.
CAPITOLO 8 COMPONENTI
La costruzione dell’ipertesto deve tener conto delle sue caratteristiche fondamentali: Il
flusso comunicativo viene controllato attraverso un’organizzazione modulare e reticolare
di contenuti in uno spazio virtuale; il rapporto di fruizione autore-testo-lettore è
caratterizzato dall’assenza di un percorso obbligato; le modalità informatiche di
realizzazione legate ad un particolare canale o software che utilizza implicano forme
differenti per i contenuti.
Occorre definire l’organizzazione dei contenuti, la prefigurazione delle dinamiche di
flusso e di fruizione;
l’ipertesto è innanzi tutto un metodo di gestione di contenuti: il sapere che vi viene
gestito è organizzato in blocchi che vengono presentati sulla base di connessioni-salti e
deve essere data al lettore la possibilità di scegliere tra più opzioni. L’operazione di
concatenazione riguarda suggerimenti di possibili collegamenti tra blocchi.
La collaborazione autore-testo-lettore, si realizza attraverso attività specifiche di
spostamento posizionali o legami suggeriti nel testo. Le conoscenze. Organizzate,
strutturate e gerarchizzate secondo criteri diversi, vengono dotate di autonomia e
utilizzate come ancora e/o come punto di arrivo di un collegamento; tale modalità di
distribuzione delle informazioni impedisce una “sbirciatina veloce” all’intero testo, ma
consente la visione di singole parti senza tener conto dell’insieme; il lettore può limitarsi a
leggere alcune parti, anche solo quelle che servono o che interessano. L’utilizzazione di
più conoscenze avviene con uno scambio interattivo tra le “offerte” dell’autore e
l’accettazione del lettore.
I blocchi di contenuto vengono offerti in funzione delle prevedibili richieste dell’utente.
Il modello funziona se l’immagine del cliente fatta dall’autore è corretta. Se non si
verificasse questo incontro, si presenterebbe il rischio reali che entrambi non
raggiungano lo scopo dell’interazione comunicativa. L’interattività: il primo perché perde
l’aggancio con l’interlocutore, il secondo perché non trova ciò per cui ha accettato di
mettersi in comunicazione. L’interattività si basa sulla condivisione di un progetto
comunicativo, che deve consentire di raggiungere gli obiettivi voluti dal lettore.
L’organizzazione dei contenuti è guidata sulla base delle scelte da consentire al lettore.
L’utente, pur con le sue limitazioni, è padrone del senso del testo, e ne può contrattare la
continuazione o gli sviluppi decidendo link dopo link. L’ipertesto assume la forma di testo
a rischio: viene letto e ricomposto solo se il lettore è invogliato a farlo.
GESTIONE DEI CONTENUTI E NODI
NODI,
I contenuti sono organizzati in blocchi compatti e autoconsistenti, autonomi. Il
termine fa riferimento alla metafora “rete da pesca”, costruita da fili annodati l’uno
all’altro, in modo che solo due siano legati tra loro, mentre a tutti gli altri è vietato
connettersi direttamente, e per farlo devono ricorrere a connessioni mediate.
Si perde la struttura sequenziale delle arti del discorso linguistico e se ne acquisisce
un’altra creata dalla concatenazione di parti, accessibili solo a blocchi attivati in punti e
in modi previsti già nella struttura sequenziale predisposta. Tale disponibilità è sotto il
dominio dell’autore dell’ipertesto.
nodo,
Il è caratterizzato da due dimensioni: quella centripeta, che ne mette in rilievo la
coerenza e l’omogeneità interna; quella centrifuga basata sul legame strutturale e
potenziale con l’esterno.
È quindi costituito da un nucleo semantico con l’indicazione della sua espansibilità
esterna. L’autonomia e l’autoconsistenza accentuano il rischio di isolamento e di
frammentarietà, rimediabili con l’assistenza dei collegamenti.
Il LINK è l’elemento vitale della rete semantica che attiva e realizza la conoscenza.
I nodi si distinguono per le gerarchie che li legano (è possibile, per esempio, distinguere
knowledge management.
quelli essenziali e quelli complementari) secondo le tecniche di
Questa operazione di frammentazione e di granularizzazione, è un momento
fondamentale che l’ipertesto condivide con altre strategie di gestione dell’informazione.
Il carattere essenziale è specifico del nodo, è dato dalla sua “linkabilità”, dal suo potersi
costituire punto d’arrivo o di partenza nella catena di costruzione del senso. Una volta
“linkato”, il contenuto viene reso disponibile per intero al lettore. Il contratto autore-
lettore vorrebbe che il punto di arrivo corrispondesse alle aspettative create o lasciate
intravedere in precedenza, ma ciò non sempre avviene. Questo mette in evidenza il
problema della dimensione del nodo e della sua granularità. Entrambe dipendono dal
progetto comunicativo perseguito.
La divisione in parti omogenee dell’insieme di un’informazione porta a frammentare il
testo in porzioni anche piccolissime. Il pericolo di dispersione viene corretto dalla
risposta di pertinenza al momento della ricezione da parte del lettore. Il rigore di una
pertinenza che promette il massimo di economia, potrebbe assumere i contorni di un
disastro in termini di coazione all’attenzione e di accesso di concentrazione richiesta.
Non troppi link per il lettore e neppure bocconi informativi troppo grandi.
Nella trasformazione di un testo in ipertesto, la costruzione dei nodi avviene in due
momenti: quelli dell’omogeneizzazione e della condensazione dei contenuti, quello della
loro compartimentalizzazione e gerarchizzazione. Con il primo si dividono le informazioni
in gruppi semanticamente o tematicamente coerenti in modo che il link porti
esclusivamente alla parte che interessa, e quindi non ci sia dispersione di attenzione e di
tempo. Con il secondo, si devono dotare le unità di una gerarchia che indichi modalità di
accesso o collegamenti impliciti attraverso o l’organizzazione logica, o l’aggiunta di titoli.
Il link indica le possibilità di collegamento dei nodi, e quindi è utilizzato per tracciare i
percorsi da un nodo all’altro. È la parte essenziale dell’ipertesto che indica le traiettorie e
le possibilità date al lettore di cooperazione con il testo.
Le caratteristiche principali dei nodi sono l’interattività, la dinamicità, la multimedialità:
l’interattività
Con è possibile inserire nuovi oggetti nel discorso testuale o suggerire
o nuove possibilità di completamento e di estensione. Lo sviluppo di metodi interattivi
crea degli stili di navigazione;
dinamicità
Con la si indicano le modalità di visualizzazione dell’ipertesto. Gli oggetti
o collegati intervengono cambiando il percorso di lettura o anche l’intera operazione di
calcolo del senso. A livello di percezione, ciò consente un timing delle presentazioni
semantiche e dei blocchi di testo;
multimedialità,
Con la si superano i vincoli di controllo e di subordinazione imposti
o dall’unico canale utilizzato. Con il computer è possibile ricorrere non solo a canali
diversi, ma anche a codici diversi di uno stesso canale. Possiamo avere nodi omogenei
o eterogenei.
I nodi garantiscono la flessibilità di una testualità e gli consentono una vivibilità in termini
di dinamismo e di energie espressive. Le potenzialità dei nodi sono infinite. Le tecniche di
costruzione dinamica dell’ipertesto, seguono una dinamica relazionale guidata dai
database, che si assicura variazioni del sito in funzione del verificarsi di eventi
particolari, da “nodi calcolati”, ottenuti cioè attraverso un calcolo di variabili previste in
database relazionali.
TIPOLOGIA DEI LINK
I link possono indicare all’utente i parametri del suo movimento: i punti dove andare,
quelli in cui si è stati, dove resterebbe da andare, le possibilità di movimento sono molte.
L’insieme di quelli ritenuti come più comodi o funzionali, sono raccolti in una barra di
navigazione. A seconda della funzione che svolgono li possiamo raggruppare in 3
categorie:
Posizionali si indicano un punto fisso di collegamento (inizio, fine, menu principale
o ecc);
Relazionali se indicano un collegamento nel testo di un collegamento possibile legato
o ad una associazione testuale o originata dal testo;
Funzionali se svolgono delle attività standard previste nel tipo di ipertesto (database,
o vocabolari, grammatiche).
Bisogna disporre dei comandi per accedere al nodo, per il passaggio da un nodo all’altro.
Un momento importante per una conclusione positiva della cooperazione testo-lettore
spesso si trova nell’indicazione del contenuto attraverso le etichettature dei nodi.
Per quando riguarda i link, Landow ne suggerisce di bidirezionali, di filtro,
metastrutturali, isomorfici, annotativi, anche impliciti, e include un tipo che dovrebbe
contenere i comandi per poterne creare di nuovi.
La varietà consistente di link per il lettore, ad un pre-testing risultò negativa in quanto
distraeva il lettore, rallentava il processo di apprendimento e richiedeva un grado di
concentrazione piuttosto pesante. Utili si rivelarono invece le liste dei siti visitati, siti
(back links)
correlati o di risorse parallele, inversi o di revisione.
La pratica di Internet presenta un uso anomalo di link; sono i collegamenti automatici
con siti posti fuori di quello in cui si opera che attivano banner e promo commerciali:
violano il contratto autore-lettore imponendo argomenti non previsti. Il link, ha un altro
compito sostanziale per l’interazione autore-lettore, quello di indicare la tessitura delle
gerarchie previste per i contenuti e per i percorsi, espressa anche in termini di visibilità,
per indicare i movimenti e le connessioni che l’autore ritiene più importanti.
NAVIGAZIONE
Alla struttura dei link si debbono due caratteristiche strutturali dell’ipertesto: la prima
riguarda l’assenza di una fine o di una fine univoca per certi tipi di ipertesto; la seconda
che le unità possono essere percorse in modi differenti. La necessità di orientare e di
guidare il percorso all’interno di un ipertesto, resta fondamentale nei confronti di utenti
esperti e non. L’usabilità non può mirare solo all’efficienza della navigazione, ma anche a
garantire condizioni di sicurezza e di serenità.
Sono necessari strumenti di localizzazione aggiuntivi rispetto a quelli del tradizionale
testo. Il disorientamento dipende da mancanze di organizzazione e di indicazioni,
dall’ampiezza dell’ipertesto e dalla sua complessità. Il problema del disorientamento deve
essere esaminato nel comportamento dell’utente. La spazialità in cui ci si muove è doppia:
una informatica, costituita dagli strumenti e dalle indicazioni di navigazione; l’altra
concettuale che riguarda l’architettura dei movimenti che si rendono possibili per il
lettore. Spesso il disorientamento di questi nasce da quello dell’autore e dalla sua ipotesi
di architettura dei contenuti.
Le barre di navigazione garantiscono la certezza di sapere dove si è, come vi si è arrivati,
la possibilità di tornare indietro, di andare velocemente alla fine e uscire o andare a dei
punti di riferimento centrali (menu) che facilitano la lettura e il percorso.
Le caratteristiche delle guide alla navigazione disegnano la dinamica dell’acquisizione
delle informazioni. Quelli essenziali sono la multilinearità, la connettività e la reticolarità.
Multilinearità indica la libertà di scelta tra più opzioni di percorso consentite dalla
o strutturazione del testo e dalle barre di navigazione. Lo spazio del testo classico è
sempre davanti, dall’inizio alla fine; nei testi elettronici è quello dei percorsi. Spesso la
libertà consentita al lettore viene presentata più ampia di quanto non sia nella realtà:
non si può parlare di movimenti liberi perché sono previsti e controllati.
Connettività è il modo di collegare le unità scansite, quasi una “sequenzialità
o seconda” all’interno della navigazione. Può essere quella del lettore: il percorso
compiuto, le scelte e le motivazioni cognitive. Nella logica della connettività si trova
anche quella della cognitività: riconoscere link, selezionarli e farli operare; al
riconoscere non segue necessariamente la scelta, e quindi il significato della pagina è
fatto anche da link rifiutatati.
Reticolarità stabilisce la trama delle relazioni tra unità semantiche nella loro
o disponibilità positiva o negativa ad un’associazione. La reticolarità pone il problema
del posizionamento spaziale (inizio-fine, centro-periferia) e dell’orientamento, di che
cosa debba venire prima o debba essere considerato centrale: il centro si sposta e
tutto tende a diventare periferia. Consente una modalità di lettura a frammenti.
Il carattere sistematico di una costruzione testuale viene dato dalla sua “chiusura”:i suoi
componenti risultano incastrati saldamente tra di loro in un rapporto di continuità.
Il principio di chiusura, venne enunciato per la prima volta dai teorici della
Gestalttheorie con una valenza universale e viene confermato dall’esperienza della
progettazione di un ipertesto: il momento più difficile è proprio quello dell’architettura
complessiva e della disposizione delle parti. La sensazione di apertura dipende dalla
maggiore libertà e autonomia di movimento che si ha rispetto al libro. La lettura di un
ipertesto può dirsi completa quando sono state recuperate le informazioni ricercate.
L’ipertesto insiste maggiormente sulle sensorialità spaziali. La navigazione Web viene
concepita come realizzata in termini di una mappa cognitiva simile a quella dello spazio
fisico e quindi segnata da strade, autostrade, cartelli e indicatori vari: ognuno sceglie il
proprio percorso in base a schemi e motivazioni del tutto individuali.
LA STRUTTURA
Nell’orientare l’utente si rivela utile scegliere un tipo di struttura dell’ipertesto. I modelli
più comuni sono ad albero, lineare, circolare, tridimensionale.
Nella struttura ad albero la sequenza delle pagine/blocchi parte da un unico punto
(tronco) per poi dividersi in rami principali e secondari. Si ritrova nella struttura
delle cartelle o dei menu a tendina;
Nella struttura lineare il punto di partenza è il menu o un indice che collega alle
parti, come un indice di libro posto all’inizio e che può fare andare alla parte
voluta. Per orientare la struttura è preferibile che, dopo la partenza verso un
blocco, sia previsto un ritorno al menu. In questo caso si ha il vantaggio di un
unico punto di raccordo e di controllo dei movimenti;
Nella struttura circolare ogni unità è legata a quella che la precede e a quella che
la segue. In questo caso l’home page conserva la funzione di inizio, ma perde quella
di punto di raccordo;
Nella struttura tridimensionale per ogni unità sono possibili più collegamenti. È il
lettore che leggendo, determina se e quando rendere visibile l’informazione in base
alle possibilità di scelta previste.
Capitolo 9 – Metafore ed Ipertesto
La discussione sulla metafora ha caratterizzato in modo particolare il momento
dell’affermazione delle GUI. Per spiegare il successo commerciale si è fatto ricorso a
teorie linguistiche, ma si vedeva in questo modo la metafora come abbellimento
espressivo, spesso ricercato e non funzionale. Un cambiamento radicale è avvenuto negli
anni ’90, quando si adottano metodologie cognitive applicate al processo metaforico, la
cui importanza è riconosciuta in aree sensoriali diverse.
La traduzione in metafore di sensazioni e concetti sembra essere l’anima delle attività
mentale e creativa dell’uomo diffusa nella comunicazione web. La metaforizzazione
inoltre copre tutti gli aspetti della vita quotidiana e no; è presente soprattutto là dove si
ha bisogno di dare espressione a sensazioni multisensoriali o tradurre quelle di un’area nei
termini di un’altra area. A rivelare questo ruolo non sono le comuni metafore linguistiche,
ma soprattutto quelle visive e quelle che usano altri sensi come l’olfatto o il tatto.
Nell’ambito di studio dell’interfaccia uomo – computer, faremo riferimento alla metafora
non nella sua accezione classica linguistica, ma come strumento basato su meccanismi di
somiglianza e paragone. L’attenzione viene focalizzata cosi sull’aspetto cognitivo.
Le teorie di Lakoff e Johnson e dei seguaci della Blending Theory hanno una loro
prospettiva concreta e esperienziale di carattere tipologico . organizzativo: la metafora
pervade la vita di ogni giorno. Il nostro modo di pensare e le nostre azioni sono,
fondamentalmente, metaforiche in natura.
Secondo la definizione tradizionale, la metafora viene definita un traslato,
sostanzialmente un trasferimento di significato, sulla base di un rapporto di somiglianza
parziale. Questo p un modo di esportare le conoscenze di un’area e utilizzarle senza
bisogno di doverne acquisire ex novo.
La metafora inoltre deve avere come tratto quello di una base comune tra gli utenti che
la utilizzano, il suo valore dipende anche dalle condizioni di convenzionalità acquisite.
Senza questa base cognitiva comune la metafore sarebbe incomprensibile.
Le perplessità associate sull’uso del desktop mettevano in evidenza questo vuoto di
comunanza cognitiva: la base di somiglianza è solo il primo momento del passaggio da una
sfera all’altra, la contestualizzazione del significato ne completa e da un senso all’intera
operazione. La forza della metafora, più che su una singola parola, sta nell’energia che
viene a creare nel campo metaforico di cui fa parte. È fortemente vicina all’idea di campo
semantico. Per carrefours linguistici, secondo Belin – Millèron, si intendono le
associazioni verbali create in virtù di una serie di correlazioni linguistiche capaci di
creare una logica concreto – complessa.
Nella discussione sulla metaforizzazione e sul web di solito ci si trova di fronte alla
necessità di distinguere quelle che è metaforico da quello che è semplicemente simbolico.
Un equivoco fa si che tutto quello che va sotto l’etichetta di simbolico vada incluso
sotto l’etichetta di metaforico. Questo però accelera il processo di oscuramento della
metafora.
La metafora del desktop mette in risalto il fatto che la sua comprensione nasce solo dalla
contestualizzazione e dal riconoscimento delle convenzionalità contenute: unisce infatti
il mondo del computer con il lavoro d’ufficio: i due settori si sovrappongono in un’area
unitaria.
Altro arricchimento del linguaggio metaforico è la sua connessione con tutta l’area della
semiologia grafica: oltre che modo efficace di esprimere concetti e di ricordarli al meglio,
prima ancora di rappresentarle, è già organizzazione delle conoscenze. L’intreccio sugli
assi metaforico e simbolico di parola e immagine costituisce il crocevia fondamentale per
i processi di visualizzazione dei contenuti e della loro rappresentazione. In questa
prospettiva assume importanza particolare la verifica della validità delle metafore usare
come strumenti di richiamo e di spiegazione, come mezzo per trasformare quella che
sarebbe stata ripetizione del conosciuto e quindi ridondanza in elemento carico di novità
e quindi di informazione.
Per quanto riguarda il ruolo cognitivo, oltre che a creare attenzione (funzione fatica), a
facilitare la memorizzazione, la metafora interviene nel processo di comprensione, perché
inserendo il nuovo in schemi cognitivi già conosciuti, attiva circuiti cerebrali già visitati.
In tal modo si traduce uno schema nuovo in uno già noto. Ciò rende l’ambiente di
apprendimento meno impegnativo.
I momenti principali in cui interviene la metafora riguardano:
a) il controllo dell’informazione mediante il loro ordinamento (serialità ordinata): in questo
modo prevale la necessità di imporre un ordine e una forma al flusso disordinato
dell’informazione.
b) l’arricchimento progressivo di complessità, secondo uno schema gerarchizzato di
informazioni, che un’informazione di base può essere completata e arricchita con
l’aggiunta di altre informazioni.
Efficacia
Nella comunicazione web o ipertestuale si intrecciano metodologie differenti di
comunicazione: digitale e analogica , questa nella forma metaforica o iconica. Le ultime
due sono impegnate costantemente in un lavoro di ibridazione e commistione. Nella
seconda c’è il richiamo di un concetto diverso e autonomo e un passaggio semantico
netto, nel primo il passaggio c’è ma si trasforma in blending di componenti semantiche dei
campi interessati.
La metafora aiuta a creare una sensazione di controllo e organizzazione. Consistenza e
profondità trovano la loro forza nel fatto che nelle metafore è possibile fare ricorso a
strutture basiche perché presenti nella vita di ogni giorno e nel pensiero di ogni giorno,
come riflesso di una base esperienziale. La loro comprensione non richiede spiegazione
perché embolie, cioè incarnate, legate alla vita reale.
Il problema dell’efficacia della metafora si aggancia a questi meccanismi: la metafora non
deve essere spiegata; se lo deve essere allora vuol dire che la quantità di elementi comuni
per il mapping non è sufficiente a coprire la distanza tra i due termini della metafora
(sorgente e obiettivo). L’obiettivo da raggiungere è quello di una via più economica di
comunicazione per mezzo della scorciatoia/sovrapposizione di due campi, uno conosciuto
e l’altro parzialmente ignoto.
L’uso di metafore si rivela più utile non tanto nella creazione di un interfaccia, ma nella
spiegazione di una procedura o di un’attività. I criteri di valutazione indicati sono la
comprensibilità e la familiarità, facilità di interpretazione.
Metafore tra ipertesto e web
L’uso delle metafore del web è talmente pervasivo da ridurne la visibilità nella percezione
degli utenti e in parte le ha modificate aggiungendovi o facendo diventare prevalenti le
connotazioni date dalla rete.
La rete metaforica che esprime il web è il risultato di un lavoro di accumulo e
ri-mediazioni. Le metafore spesso non servono ad esprimere direttamente una realtà, ma
un punto di vista; sono create o utilizzate per interpretare un fatto o un’esperienza
arricchendola di valori e riferimenti culturali; non mirano a sovrapporre totalmente il
campo d’origine con quello di destinazione.
I campi metaforici applicati al web, e quindi all’ipertesto, sono fortemente intrecciati tra
di loro e possono essere percepiti in modo diverso anche dalla stessa persona a seconda
del prevalere del suo interesse.
Percezione ed essenza
La ricostruzione della genesi della mappa metaforica d internet/web, e quindi
dell’ipertesto, assume l’aspetto di ricostruzione di modi storici in cui la visione del web si
è concretizzata. Tale ricostruzione serve alla comprensione delle modifiche reali a cui
essa è andata incontro.
La domanda non è più su come deve essere internet, quali debbano essere le sue finalità e
la sua politica comunicativa, ma su cosa ne hanno fatto e ne vogliono fare gli utenti.
L’interrogativo che ci si deve porre è se la dimensione internet modifica l’ipertesto e in
che cosa. La struttura del web non tende a mantenere intatte le caratteristiche
dell’ipertesto. Due le diversità più evidenti. La sua struttura topologica di accumulo
individuale (una pagina si può aggiungere all’altra senza verifica su rapporti di sinergia e di
congruenza con il resto) confligge con l’idea di coerenza progettuale della costruzione
dell’ipertesto, se non nella sua fruizione.
La seconda diversità riguarda il grado e le modalità scelte per l’interazione della triade
website-autore-utente. L’ipotesi qui proposta è che i processi della metaforizzazione di
internet abbiano luogo sulla base dell’ampliamento sociale e degli usi che di volta in volta
ne fanno gli utenti.
Le metafore di internet nascono e razionalizzano, spiegano ed estendono l’uso,
introducono e suggeriscono osmosi con una realtà e portano alla modifica non solo della
percezione dello strumento ma anche delle funzioni e della sua struttura.
Due sono le metafore di internet: quella di rete fondata sulla connessione e quella di
testo attenta alla tessitura e all’ordito dei segni. Il primo ha guidato la costruzione fisica
e funzionale della rete, il secondo ha ispirato progetti di comprensione della conoscenza
umana e ipotesi del suo sviluppo.
Lo starting point tecnico
L’idea di connessione di più computer nasce dalla necessità, avvertita negli anni ’70, di
superare alcune limitazioni nell’uso di strumenti informatici e di procedure di calcolo, in
termini di potenza e velocità di elaborazione, di memorie di massa. Dinanzi alla onerosità
di attività sostitutive come le procedure di trasferimento di dati, emerse spontanea l’idea
di trovare qualche collegamento o filo che consentisse il contatto tra realtà separate o
distanti.
L’obiettivo base di internet è stato inizialmente quello di rendere possibile l’integrazione
in tempo reale delle macchine virtuali attive sui mainframe prima, workstation e pc poi.
L’uso contemporaneo di una macchina fisica, detta mainframe, da parte di molti utenti
successivamente si estese a indicare anche alla condivisione senza alcuna limitazione delle
conoscenze. Questa idea è alla base del WWW.
L’aumento consistente dei computer collegati determinava anche graficamente la forma
di una rete simile a quella da pesca.
Le linee di metaforizzazione si sviluppano a partire dalle percezioni che si avevano dei
due elementi, computer e collegamento. Il computer era visto come contenitore di dati,
quindi come sostituto parziale della persona. La potenza di un computer non è racchiusa
in quello che contiene, ma nelle connessioni che consente di operare. Ancora una volta è
il filo che fa la differenza e che arricchisce. La reticolarità e la connessione diventano il
tratto fondamentale della nuova tecnologia. Questa funzione di ponte apre la porta alla
serie metaforica legata alla comunicazione, come procedura di condivisione di prodotti,
idee, concetti.
Il filone letterario
Nel testo si coglie una frammentazione che consente l’applicazione della reticolarità e di
altre caratteristiche che anche se condivise, hanno una visibilità differente. Nella
ricchezza teorica della teoria testuale, l’ipertesto è una seconda struttura testuale, di
tipo relazionale, che si aggiunge a quella propriamente testuale.
Il gioco metaforico
Ogni attività al computer viene percepita sulla base della metafora di riferimento. La
storia delle metafore utilizzate rivela le variazioni di uso che l’utente ne ha fatto. Gli usi
delle metafore e gli atteggiamenti degli utenti di oggi non sono gli stessi degli anni scorsi.
Così, la metafora di desktop considerata da milioni di utenti come la porta magica la
porta magica quasi inarrivabile all’inizio, oggi è considerata la più sciocca tra tutte.
Analoga quella che vedeva il computer come cervello elettronico.
Questo approccio è stato applicato a tre metafore diverse: desktop, windows e web. La
prima rifletteva un mondo di impiegati alle prese con macchine da scrivere, calcolatrici
da tavolo, fogli e penne; la seconda si apriva attraverso il multitasking e il time-sharing ad
un uso non sequenziale delle attività del computer; la terza riflette a sua essenza
comunicativa: un file prima si salvava su un floppy o su hard disk, oggi invece si “invia a”, e
la grafica di appoggio fa vedere il foglietto che vola da un punto all’altro.
Non tutte le metafore hanno la stessa valenza: ce ne sono di primarie, di secondarie e
cosi via. È necessario distinguere le metafore semplici da quelle complesse o ibridate.
Spesso più che di metafore si tratta di semplici paragoni.
Le traiettorie della rete
Le traiettorie della galassia metaforica del Web e dell’ipertesto sono legate alle idee di
connessione e di reticolarità, di spazialità intesa come luogo e come insieme di attività
connesse, di libro come sistema di lettura/scrittura e di contenitore organizzato di
conoscenze.
Quella della connettività è la principale e fornisce anche le denominazioni più comuni
all’ipertesto e a Internet come “net”, “network”, “ethernet”, e l’indicazione verbale
fondamentale di “connettere”. Essa dà origine ad una seconda area, quella di reticolarità,
e attraverso questa, alla terza, una forma particolare di spazialità specializzata
all’attraversamento di un percorso o al trasporto di canali di trasferimento di dati da un
contenitore all’altro o da un luogo all’altro. L’azione di connettere presuppone l’esistenza
di due capi auto consistenti e autonomi e l’azione di unirli con un nodo, che,
conservandone l’autonomia, ne fa una nuova entità.
DESCRIZIONE APPUNTO
Riassunto per l'esame di Linguistica computazionale, basato su appunti personali e studio autonomo del testo consigliato dal docente Ipertesto Sermo Communis, Di Sparti . Il documento è costituito dalla spiegazione dei concetti fondamentali, quali: l'ipertesto come genere di comunicazione quotidiana, la prospettiva di alfabetizzazione ipertestuale, il locus del medium o del genere, la compartimentalizzazione delle informazioni.
I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher trick-master di informazioni apprese con la frequenza delle lezioni di Linguistica computazionale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Palermo - Unipa o del prof di sparti antonino.
Acquista con carta o conto PayPal
Scarica il file tutte le volte che vuoi
Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato