Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

anzitutto un’estensione dei nostri copri e dei nostri sensi. Quando siamo privati della

vista, gli altri sensi ne assumono in certa misura le funzioni.

Più che media singoli, simbiosi di multimedialità

Ogni nuovo medium deve trovare la propria collocazione all’interno della struttura

economica, sostituendo o aumentando le possibilità di scelta disponibili; l’accettazione

popolare, e di conseguenza il successo economico, può giungere solo convincendo i

consumatori che il nuovo medium migliora le esperienze di quelli precedenti. Allo stesso

tempo, il successo economico di coloro che lavorano allo sviluppo della nuova tecnologia

deriva dallo status che il nuovo medium acquisisce nel tempo. Allo stesso modo, la piena

comprensione che l’industria dell’intrattenimento manifesta nei confronti della rimedi

azione come trasposizione (riposizionamento) svela l’inseparabilità dell’aspetto economico

da quello sociale e materiale.

Il termine “remediation”

Più recentemente è stato introdotto e discusso il concetto più tecnico di “remediation”.

Il termine è ambiguo e anche difficile. Da un lato riporta all’area semantica di rimedio (dal

latino “remedium”) e quindi indirizza nell’area di “rimediare” ad una deficienza. Secondo

Bolter e Grusin l’adozione del termine è funzionale ad esprimere il modo in cui il medium è

interpretato dalla nostra cultura nell’atto di riformarne o migliorarne un altro. In questo

momento storico la rimedi azione è la convenzione predominante che lavora per la

costruzione dell’identità dei nuovi media digitali. La nostra cultura concepisce ogni

medium come qualcosa che risponde a, ridispone, compete e riforma altri media. Quella

che proponiamo è una genealogia di affliliazioni nella quale i mezzi di comunicazione più

vecchi possono anche rimediare quelli nuovi 1) prevalenza della funzionalità o della

funzione che svolge rispetto alla “verginità” della tecnologia 2) rimediazione come

remediation (mutuazione e variazione per ibridazione da un altro media) 3) rimediazione

come rimedio ai buchi e alle insufficienze. PaulLevinson utilizza il termine “rimediazione”

per descrivere come un medium ne riformi un altro, affermando una forma teleologica,

quasi i mezzi di comunicazione si sviluppino antropicamente e cioè per ricordare lo

sviluppo di forme umane, esseri umani inventano nuovi mezzi di comunicazione con lo

scopo di superare i limiti posti loro da quelli precedenti.

Due logiche: immediatezza e ipermediazione epistemologico,

L’immediatezza può essere inteso in due sensi, uno secondo cui

immediatezza significa trasparenza, assenza di mediazione di qualsiasi tipo di

psicologico,

rappresentazione, e in senso dove immediatezza è sensazione dello spettatore

che il medium è scomparso e gli oggetti sono sotto i suoi occhi. Nel primo caso è implicito

che il medium possa cancellare se stesso, lasciando lo spettatore alla presenza

dell’oggetto rappresentato, favorendo cosi l’esperienza dell’oggetto,nel secondo si

definisce l’esperienza come autentica. Anche il termine ipermediazione ha due

corrispondenti significati: in senso epistemologico significa opacità, cioè conoscenza del

mondo tramite i media; il significato psicologico è l’esperienza che lo spettatore vive in

presenza dei media e della presenza dei media; è l’insistere sul fatto che l’esperienza del

medium è essa stessa un’esperienza della realtà. Il richiamo dell’autenticità

dell’esperienza è ciò che tiene insieme la logica dell’immediatezza e dell’ipermediazione.

Come nella lingua: drift, economia, funzione

Come nelle lingue, un media non agisce isolato,vive in una situazione di competizione con

gli altri media, spesso attiva complicità e cooperazione, talvolta li vampirizza, in modo da

affermare la propria presenza a danno degli altri, riducendone il territorio e la

funzionalità, nonché la frequenza d’uso. Questa considerazione si collega

particolarmente con le teorie di linguistica quantitativa di A. Martinet secondo cui le

parole sono in un perenne stato di competizione a livello di struttura globale di lingua e al

livello individuale o comunitario di uso per rispondere alle esigenze di economia d’uso

proprie degli utenti di un particolare periodo e situazione storica. E’ questa

corrispondenza che rende le parole vitali, le trasforma o le lascia “morire”. Nel caso

dell’ipertesto questa situazione sii rende più complessa perché le stesse dinamiche si

applicano ai media hw e sw ed all’uso sociale che lo caratterizzano. Si articola sulle

seguenti caratteristiche:

la sua natura di strumento comunicativo è volatile, sempre in bilico tra esigenze di

- economia funzionale dell’utente e refrattarietà dei media e dei codici, non sempre

docili alle esigenze avvertite dall’utente. Il meccanismo di trovare un compromesso

favorevole alla pigrizia dell’utente e alla adeguatezza dell’azione comunicativa ne

rende spesso spasmodica la ricerca di variazioni nella sua struttura e nelle sue

modalità d’uso;

questo essere in balia tra utente e scopo comunicativo ne determina la condizione

- di instabilità e di

esposizione costante alla variazione.

Ogni media per essere utilizzato, si propone come strumento più adeguato e più

economico dell’altro. Succede che tale concorrenzialità può assumere la forma

dell’invasione del territorio di un media, della cooperazione, della ibridazione, o della

vampirizzazione.

A cosa stare attenti lavorando con un media e con gli ipertesti, le esigenze funzionali

- tensione al massimo della capacità espressiva e di costo cognitivo e operativo: il media

tende a dare sempre di più semplificando al massimo il ruolo dell’utente (principio di

economia funzionale espressiva)

- progressiva procedura di semplificazione delle operazioni e delle procedure e tendenza

ad aumentare o raffinarne le funzioni

- adeguatezza (progressiva, uno strumento che si presenta come più adeguato rispetto ai

predecessori)

- tendenza all’universalità: tende ad essere utilizzato da un numero crescente ,

potenzialmente infinito, di utenti.

- implicazioni e costi economici: un media si afferma se costa poco, se i vantaggi che

offre hanno un costo economico conveniente e abbordabile

- ogni media tende ad amplificare i benefici sociali derivanti dal suo uso sempre

concorrenza con gli altri

- ha un consistente impatto cognitivo in termini di metacognitività e di operazioni

metalinguistiche.

I nuovi media non necessariamente prendono il posto di quelli precedenti perché il

processo di riforma e di trasformazione è reciproco, possono anche migliorare una cosa

già buona, evidenziandone vuoti, lacune, lentezze funzionali. Ogni nuovo medium trova

una sua legittimazione perché riempie un vuoto o corregge un errore compiuto dal suo

predecessore. Il significato sociale e cognitivo dell’ipertesto non rimane quello dell’inizio;

oggi è un’altra cosa. In alcuni casi le potenzialità possono emergere solo lentamente, in

relazione all’evoluzione e alle trasformazioni dello strumento tecnologico (cosi come è

accaduto alla radio e al telefono. E’ possibile instaurare una varietà quasi infinita di

relazioni culturali con i media gia esistenti: l’unica cosa che sembra impossibile è l’assenza

totale di queste relazioni.

Da un media ad un altro: traduzione o trasposizione

L’industria dell’intrattenimento definisce il processo di trasposizione come riversamento

di un tipo di contenuto conosciuto dal pubblico all’interno di una nuova forma mediale.

L’obiettivo non è quello di sostituire forme mediali precedenti, di cui si possiedono i

diritti, ma piuttosto di diffondere il contenuto nel maggior numero possibile di mercati.

Ognuna di queste forme avanza la tacita pretesa di offrire un’esperienza che le altre

forme non possono offrire. Il processo non riguarda il contenuto soltanto ma la

riconfigurazione di tutti i componenti degli atti comunicativi. La struttura dell’ipertesto

non è statica, può essere colta nei suoi aspetti cangianti solo se colto nella costante

opera di rimediazione a livello di supporti e di software, soprattutto in termini di

metacognitività. L’ipertesto è cambiato perché rispetto alle origini o alle fasi intermedie

del suo sviluppo, il suo sostrato mediale è cambiato (ibridazione, remediation

domestication) nell’hardware, nel software; perché gli utenti ne hanno modificato gli usi o

le loro modalità, perché il suo media contenuto è stato modificato.

CAPITOLO 6 LE INTERFACCE

UNA FACCIA PER IL COMPUTER

Quando si parla di interfaccia, si indica l’organizzazione grafica delle schermate del

computer in cui sono contenuti potenzialità e dati necessari a consentire l’interazione

dell’utente con il computer, finalizzata alla realizzazione di compiti definiti.

L’interfaccia è intesa come insieme delle modalità dell’interazione uomo-utente. La

rivoluzione che ha fatto del pc uno strumento di massa, è stata determinata

dall’abbandono dell’interfaccia che prevedeva comandi e messaggi linguistici scritti in

ordine sequenziale (step by step), in favore dell’adozione di un’altra di natura grafico -

simbolica ispirata ad un gruppo misto di allegorie, paragoni o metafore come per esempio

quella delle finestre (windows) o della scrivania (desktop).

La storia sociale dell’informatica è scandita dalle interfacce utilizzate e dalle modifiche

che hanno determinato il rapporto con l’utenza.

Dietro ad ogni sistema operativo o ad una applicazione c’è un’interfaccia (o un sistema di

interfacce), cioè un insieme di modalità operative orientate su un tipo di utente finale

(“utente modello”) e su un’ipotesi/obiettivo di ottimizzazione dell’uso di abilità cognitive.

Ad indicare la strada non deve essere il software autonomo del computer, bensì l’utente

con le sue conoscenze acquisite prima dell’impatto con l’utensile e con le attività che si

prefigge compiere, facilitato dalla macchina. La validità dell’interfaccia dipende dalla

capacità di rispondere alle aspettative dell’utente, ottimizzandogli lo svolgimento del

lavoro da compiere.

Un primo momento di sviluppo è quello delle interfacce “letterali”. La comunicazione con

i mainframe avveniva in una forma scritta (digitata sulla tastiera e vista sul terminale), con

messaggi e comandi espressi in una lingua rigidamente codificata; non era simultanea o

immediata, perché tra le battute uomo-computer c’era sempre un ritardo fisico. La

sensorialità umana presente nell’interazione era scarsa dato che era ridotta alla semplice

visione alfabetica di testi, disposti in modo seriale come in una pagina di un libro. Il

mondo lineare e sintattico delle lingua pervadeva gli apparati e le procedure cognitive

dell’utente. Tutto implicava l’osservanza scrupolosa della procedura, “ubbidienza” alle

leggi volute dal sistema, l’esecuzione. Una gerarchizzazione estrema della dipendenza

dalla macchina.

L’introduzione delle GUI determinò un trend industriale: alla sequenzialità degli elementi

conversazionali si sostituisce la globalità dei menu, nasceva il tocco magico del click in

tutte le sue varietà (semplice, doppio, sinistro, centrale). Si chiude l’epoca esplicita della

parola e si apriva quella del gesto.

suite

La più comune della Microsoft si chiama “Office”. Le applicazioni altre furono

considerate sottoprodotti o prodotti per nicchie di utenti . la dipendenza dalle macchina

tendeva a diminuire mentre crescevano le potenzialità interattive offerte.

Finì il dominio della sequenzialità e inizia il recupero di tempi “umani” nello svolgimento di

un compito: venivano offerte possibilità di gestire con comodo interi documenti , dando

la possibilità di spezzettare il lavoro in porzioni più comode e con un numero di tentativi

più ampio.

Questo insieme di innovazioni si rivelò un salto incredibile negli aspetti tecnici e nella

filosofia sociale dello strumento. E le GUI metaforizzate, iconiche e simboliche,

mettevano finalmente in primo piano l’aspetto internazionale presente nell’operare su un

computer o con un computer.

La richiesta di attenzione alla multisensorialità avanzata dallo sviluppo della

comunicazione audiovisiva (cinema, televisione, intrattenimento) trova risposta nelle

interfacce multimediali

Nello sviluppo dell’interfaccia grafica era evidente l’influsso dei moduli comunicativi della

stampa, in quello dell’interfaccia multimediale è soprattutto la televisione che fa da

punto di riferimento. Lo sviluppo tecnico audio e video si fa sempre + rapido, riducendo i

costi e rendendo popolari le tecniche di accesso e di uso.

L’ultima ri-mediazione è quella del telefono con il computer, che ha reso possibile il

superamento delle barriere spazio-temporali nella comunicazione. L’interfaccia

multimediale cambia radicalmente visto che è possibile interagire anche con fonti

comunicative presenti solo virtualmente.

guidelines,

Prolificano le le guide più o meno specifiche. Il web più che strumento è

ambiente cognitivo.

L’interfaccia ha il grande merito di aver spostato l’attenzione dalla macchina all’uomo-

utente, dal come funziona la macchina a come l’utente può realizzare i suoi compiti. Ha

ridato centralità all’uomo e all’utente.

I problemi dell’interfaccia conoscono momenti di particolare lucidità quando il computer

si avvicina al bambino: in questo modo le modalità educative del mezzo risultano più

evidenti e il rapporto tra macchina e sistemi cognitivi (cervello, mente, intelligenze,

sensibilità) si presenta più complesso. Il computer assume la sua funzione di artefatto

cognitivo, messo in relazione con le varie forme di intelligenza e con le tappe dello

sviluppo dell’intelligenza. Quello dell’interfaccia si presenta come problema di

comunicazione: è il luogo in cui viene definito l’altro. In questo caso, l’altro è un utente

che vede la propria immagine riportata sullo schermo e che diventa la faccia dell’altro.

L’interfaccia è l’incontro di due facce e di due rappresentazioni e proiezioni di se. Capire

l’altro e leggerne i segni sul proprio volto. Lo schermo è la faccia, quello che vi vediamo è

quello che il computer ci comunica.

La comunicazione è concentrata sulle facce e sulle metafore che le esprimono. La faccia

del computer non è altro che una versione speculare riflessa della nostra. La macchina è

sempre proiezione di se: vi vediamo solo una nostra faccia.

APPROSSIMAZIONI METODOLOGICHE

La definizione tecnica di interfaccia mette in risalto come essa sia un luogo di incontro e

di contatto in cui viene organizzata l’attività degli utenti e del computer per il

completamento dei compiti.

Viene indicato tutto ciò o è stato predisposto per consentire la comunicazione uomo-

macchina o uomo-computer. Il luogo è un ambiente di lavoro strutturato in sottospazi

finalizzati alla realizzazione di compiti particolari.

La presenza in un ambiente può presentarsi come semplice contingenza legata al disbrigo

di una pratica, presenza strumentale per gestire gli aspetti di un’attività lavorativa,

oppure può essere immersione in un ambiente virtuale, per attività di comunicazione, di

contatto personale e sociale.

Abbiamo indicato come l’interfaccia svolga una funzione di specchio, luogo in cui ci si

specchia e ci si esibisce. Anceschi propone l’adozione di una doppia prospettiva:

semiotico-progettuale, l’una, con ampio riferimento alle teorie della comunicazione

applicate al design, l’altra orientata in senso ergonomico-cognitivo ma di natura

informatica.

Privilegia innanzitutto il principio che possa dare coerenza e consistenza agli elementi

attivi nell’interazione. Il design di interfacce consiste nel configurare le superfici, le zone

e anche le atmosfere dell’adattamento fra corpo dell’uomo e apparecchiatura. Il corpo è

inteso qui come porta percettiva della mente.

Cooper suggerisce di introdurre la distinzione di tre classi di interfacce di natura

referenziale, metaforica, simbolica e idiomatica (convenzionale). L’approfondimento della

definizione di interfaccia è avvenuto in due direzioni: nella prima si fa riferimento al

quadro globale dell’ HCI (generica, design dell'oggetto quotidiano, artefatti cognitivi).

HUMAN-COMPUTER-INTERACTION

Il termine indica lo studio delle relazioni tra utenti umani e sistemi di computerizzazione.

In inglese è conosciuta con le sigle CHI (computer-human interaction) e HCI (human-

computer-interaction);

il primo principio comune a tutte le forme di HCI è quello di fondare l’interfaccia su una

più accurata comprensione dell’utente umano e del sistema informatico, in modo da

rendere più agevoli e soddisfacenti le interazioni tra i due.

Particolare attenzione è posta sull’articolazione del compito (task) da svolgere, si cerca di

scomporli in parti o di trasferirne l’applicazione su altri task. L’uso del computer deve

rendere più agevole lo svolgimento del compito rispetto allo svolgimento puramente

manuale.. computer studies.

HCI a livello accademico rientra nei corsi di design o anche di Il

linguaggio che l’HCI utilizza può essere basato su comandi linguistici o su azioni associate

ad icone o parole. Nella ricerca di un’interazione che riduca al massimo l’errore di

principio assoluto è quello di preferire la cliccabilità alla digitazione, sia per il minor

numero delle occasioni di errore, sia per una maggiore mnemonicità legata anche ad una

memoria visiva. Il selezionare e cliccare è diventato il momento conclusivo e importante

delle singole fasi di una procedura. L’interfaccia HCI non è data solo da segni iconici e

linguistici, ma risulta dall’integrazione di strumentazioni hardware e software.

Si rimprovera all’interfaccia un carattere di passività: bisogna rendere attivo e sicuro

l’utente, facilitandogli l’esecuzione di operazioni che vuole o deve fare. Uno dei fastidi

che si prova spesso nell’uso di un applicativo è quello dell’eccessiva abbondanza di scelte

che offre e che impone.

Uno dei requisiti fondamentali è la flessibilità. Non esistono regole universalmente valide

per risolvere un problema. Il rischio è quello di non essere in grado di offrire il massimo di

super-user

offerte e di opzioni a un o un esperto, o di terrorizzare un utente che vuole

poco con una valanga di opzioni.

DALLE INTERFACCE DEGLI OGGETTI QUOTIDIANI AL DESIGN EMOZIONALE

Lo sviluppo delle interfacce è caratterizzato da una serie di ritardi. Inizialmente è

particolarmente attenta a seguire lo sviluppo fisico delle potenzialità delle macchine con i

software che segue e che si adatta a quest’ultimo. Il ruolo possibile delle esigenze

dell’utente appare secondario: i desideri di questi non incidono sullo sviluppo possibile.

L’inversione di questa tendenza viene determinata dalla presenza del ruolo della

psicologia cognitiva, orientato a soddisfare le esigenze cognitive degli utenti a cui

macchine e software sono destinati. Quest’influenza è la sezione leader della teoria delle

interfacce.

Il primo ritardo lo si individua nella tendenza ad attenersi ai modelli cognitivi impliciti o

che esprimevano le pratiche di programmazione dei computer degli anni 60-70. Il modello

era influenzato da una logica linguistica, seriale e sequenziale (diagrammazione a blocchi

e procedure “step by step”). Va rilevata la priorità a soddisfare le richieste del mercato,

predominanti, delle attività gestionali e amministrative che hanno consentito molto spazio

per lo sviluppo di software grafico o iconico e multimediale. La programmazione grafica

in particolare si presentava molto complessa. L’esigenza di dare un ruolo maggiore alla

comunicazione audiovisiva e grafica veniva diffusa tra gli utenti dallo sviluppo e dalla

diffusione di una cultura audiovisiva a opera dei nuovi media di massa (cinema,

televisione, editoria).

Un altro ritardo riguarda l’approfondimento culturale delle implicazioni della diffusione

delle nuove tecnologie. Queste barriere sono state spezzate dallo sviluppo delle teorie

funzionaliste del design degli oggetti elettronici quotidiani, delle GUI e dell’HCI e,

soprattutto, con un’attenzione maggiore alla multisensorialità e alla multimedialità

dell’uomo nella sua vita quotidiana.

Nella storia delle interfacce un ruolo significativo ha avuto Donald A. Norman.

The psychology of evertyday things

Il suo ha spinto al massimo il funzionalismo nel design

degli oggetti quotidiani e lo ha esteso alla progettazione delle GUI e dell’HCI

usability.

contribuendo alla nascita dell’ La sua è stata una crociata per i diritti

dell’utente, della sua centralità. Norman perviene alla formulazione di questi principi

consumer satisfaction

dall’attenzione per le regole del marketing che fa della la regola

della comunicazione.

L’OGGETTO COME INTERFACCIA

Il punto di partenza della teoria di Norman è che l’interfaccia deve servire all’utente per

un uso trasparente (cioè immediatamente comprensibile con le conoscenze comuni che

ognuno possiede, senza apprendistato di nuove conoscenze) di un oggetto, o di uno

strumento per compiere una task normalmente svolta senza di esso. Il ricorso dello

strumento deve essere cognitivamente economico. Occorre ridurre il costo cognitivo,

economico ed emotivo che il ricorso allo strumento comporta per renderlo conveniente.

L’uso e la scelta di un oggetto sono determinati da un insieme di fattori diversi, che

possono cambiare a seconda delle circostanze esterne o dagli umori emotivi dell’utente.

La gamma dei significati di un oggetto oscilla tra quelli utilitari (l’oggetto viene visto nella

sua funzionalità di strumento associato a modalità d’uso) e quelli individuali che risultano

proiezioni di una storia personale (ricordi, sensazioni, allusioni).

Il design e il progetto devono esprimere non l’estro creativo del progettista, ma la risposta

ad un bisogno del destinatario. Non è detto che un design attraente debba

necessariamente essere il più efficace. I motivi delle valutazioni e dell’acquisto di un

prodotto possono essere funzionali o decorative a seconda del contesto d’uso.

L’interfaccia è il luogo del contatto tra due entità, caratterizzato con le modalità

contrattuali utente-strumento-compito che ne regolano l’attività.

Secondo Norman sono tre i principi che regolano il design negli oggetti quotidiani:

1. il carattere sistemico dell’interfaccia che focalizza l’attenzione sulla “rete

complessa” degli oggetti che costituiscono il contesto d’uso: ogni oggetto non

costituisce un’entità a se, ma è legato agli utenti, situazioni d’uso, scopi;

2. la priorità assegnata all’utente e ai compiti da svolgere rispetto a tutto l’insieme

dei fattori garantisce la riuscita funzionale dell’interfaccia;

3. la non identificazione del progettista con un utente-modello: un problema visto

dal programmatore appare completamente agli occhi di coloro che svolgono tale

attività professionalmente. Il progetto deve spostarsi sul comunicatore-

progettista, che tende a privilegiare se stesso e le proprie centralità alle funzioni

da compiere e all’utente che le deve compiere. Il design è un’attività complessa per

la complessità dei bisogni della gente.

IL SISTEMA DEGLI OGGETTI

INTERFACCE, ARTEFATTI COGNITIVI

Nella tipologia degli oggetti un ruolo specifico è svolto dai cosiddetti “artefatti

cognitivi”. Sono diversi dagli oggetti comuni perché intesi nella loro natura di macchine

simboliche rappresentazionali con obiettivi di conoscenza.

L’artefatto varia a seconda del compito e della bravura dell’utente. Migliorano le

potenzialità cognitive umane a livello di memoria, di quantità e di qualità di elaborazione

delle informazioni.

Nello sviluppo delle interfacce viene ribadita la necessità di curare la conoscenza del

compito da svolgere e la sua possibile articolazione in parti.

Il meccanismo funzionale dell’artefatto sta nella traducibilità di un compito in un altro

che lo sostituisce con maggiore efficienza ed economia. Quando un compito viene

sostituito da altri o compiuto per mezzo d’altri, tale operazione di “traduzione” implica

una riprogrammazione dei requisiti cognitivi differenti. L’artefatto cognitivo consente di

poter scegliere tra le modalità esecutive di un compito o di un’azione. È un aspetto

importante perché è possibile tradurre compiti di una natura complessa o che

presuppongono abilità particolari, in altri che sono analoghi al primo e hanno una

computabilità più agevole o possono essere scomposti in parti e quindi più facilmente

eseguibili. Viene ampliata e sfruttata la capacità rappresentazionale dell’artefatto e la sua

abilità a tradurre una rappresentazione in un’altra più conveniente. La scelta delle

rappresentazioni permesse dall’artefatto influenza l’interazione della persona nell’oggetto.

Lo stile e il formato dell’interfaccia determinano l’usabilità dell’artefatto, trasformano e

traducono le caratteristiche rappresentazionali dell’artefatto con quelle della persona.

La validità di un processo rappresentazionale dipende dal grado di uguaglianza tra

oggetto e fasi di elaborazione e di rappresentazione. Il massimo di forza di un’interfaccia

lo si raggiunge con la sua massima naturalezza rappresentazionale; ciò si verifica quando

la similarità dei processi è massima e la comprensione immediata.

Una conoscenza anticipata aiuta a cogliere l’articolazione e la comprensione dell’intera

azione.

INTERFACCIA EMOZIONALE E ROBOT

Nell’ultima fase della teoria delle interfacce, Norman definisce l’ultimo aspetto, quello

che ha chiamato “emotional design”. La consapevolezza che la funzionalità e l’efficienza

non sempre sono sufficienti a guidare o a determinare la nostra scelta di un oggetto tra

gli altri concorrenti, lo porta a recuperare gli aspetti emozionali nell’uso degli oggetti e

delle interfacce.

Norman ammette che la prevalenza data agli aspetti cognitivi e di usabilità ha messo da

parte l’aspetto estetico ed emozionale della comunicazione per mezzo di oggetti.

Il significato di un prodotto viene articolato su tre dimensioni:

visceral (la sua forma e il suo impatto iniziale);

o behavioral (piacevolezza ed efficacia d’uso);

o reflective (la razionalizzazione e l’intellettualizzazione del prodotto)

o

nella vita di ogni giorno si intrecciano tra loro in termini di emotività e cognitività. Tale

struttura consente di individuare anche tre tipi di consumatori: l’utente che si basa

fortemente sulle apparenze, quello che preferisce usabilità, funzionalità e che tende a

mantenere il controllo sull’uso dell’oggetto, e quello che basa la propria preferenza

pesantemente su nome, marca e prestigio, ovvero sul valore aggiunto del prodotto in

termini di autostima.

OPPOSIZIONE TRA EMOZIONE E CONOSCENZA

Secondo Norman, la macchina non è che debba sentire le emozioni, ma deve saperle

riconoscere e simulare, o produrre un comportamento confacente al contesto emotivo in

cui avviene l’interazione.

PRINCIPI

Nel progettare lo schema interattivo dell’interfaccia occorre partire dalla consapevolezza

che il modo di vedere il compito da realizzare è differente, a seconda che prevalga il

punto di vista dell’utente o del progettista. Mentre il progettista ha una visione globale e

complessa del compito, l’utente preferisce una focalizzazione esclusiva sull’esecuzione

del compito. Ciò significa interpretare e tradurre il compito originario in un altro o in

altri, qualora il primo possa essere sostituito o realizzato con procedure più semplici per

l’utente. Le basi di un’interfaccia efficace stanno in questa capacità di

reinterpretazione.

Nel progettare l’interfaccia è essenziale l’individuazione di una metafora che possa

spiegare bene l’insieme delle operazioni da compiere. La progettualità dell’interfaccia

presuppone nel progettista una serie di conoscenze e di consapevolezze che possono

trovare aiuto nella mataforizzazione, nella diagrammatizzazione e nella sua visualizzazione

iconica. processualità

La sistematicità implica una specifica: l’applicazione di questo principio

permette all’utente di usufruire di:

precomputazione

una che consente di diluire nel tempo le operazioni preliminari

a) richieste dallo svolgimento effettivo del compito; in questo modo è possibile

ottenere una conoscenza preliminare delle richieste del compito;

conoscenza distribuita e socializzata

una superando le limitazioni personali e

b) consentendo l’ausilio di competenze e di esperienze differenti, virtualmente

disponibili;

riformulazione del compito

della nella sua architettura globale e nel trasferimento

c) funzionale di sue componenti o fasi. Questo si traduce in un’economia di costi e di

efficacia.

Collegato a questo aspetto è quello della rappresentazionalità: le conoscenze richieste o

scambiate nel processo di interfacciamento possono essere espresse su sistemi o con

segni di rappresentazioni differenti; possiamo accedere ai dati scritti in formato binario

traducendoli in formati alfabetici o iconici più facilmente leggibili. La rappresentazione

dipende dalla scelta delle interazioni con lo strumento (pc): una mediazione diretta tra

persona e oggetto, o tra funzioni e attività della persona.

Il bisogno dell’interfaccia nasce dalla necessità di mediare una rappresentazione interna

alla macchina con l’utente non specialista (lo schermo) che adatta le caratteristiche

rappresentazionali dell’artefatto con quelle della persona. mapping

L’aspirazione maggiore nel creare rappresentazioni è quella di avere un completo

tra oggetto voluto e modalità delle rappresentazioni. Tra gli schemi delle rappresentazioni

e l’utente esiste una barriera, quella dei simboli utilizzati. La gamma di rappresentazioni

offerte influenzano l’interazione tra persona e strumento.

Anceschi da un’organizzazione diversa degli elementi che controllano la processualità

tecnologie dell’interfacciamento

dell’interfaccia, distinguendo le (con l’uso di strumenti

pilotaggio dell’interazione e delle interconnessioni o i gradi

come le periferiche) il

dell’interconnessione, decidendo fino a che punto lo strumento debba essere considerato

tale.

Nella varietà di interfacce possibili un’altra proposta è quella di vedere il computer come

messa in scena di ruolo. implicito/esplicito

L’ultimo aspetto è il nesso nelle conoscenze che dev’essere riferito alle

conoscenze “naturali”, apprese senza un addestramento specifico e assorbite e sviluppate

nel sistema cognitivo. Le cose che sappiamo senza che ce le abbiano insegnate sono

tantissime, e l’orientamento cognitivista oggi diffuso ci spinge a farne un uso sempre più

vasto.

LINGUISTICA E TEORIE SULL’INTERFACCIA

Due tipi di problemi riguardano il rapporto tra le forme delle varie conoscenze e la loro

standardizzazione in un sistema. L’elemento più ricorrente è quello delle intelligenze

legate alla multisensorialità e alla multimedialità. Il secondo aspetto riguarda il rapporto

tra conoscenza implicita e conoscenza esplicita. Il richiamo è alla loro naturalità: nella

vita quotidiana utilizziamo una conoscenza implicita in modo significativo.

pidgin

Erickson studia il concetto di “pidgin”: la lingua nasce come strumento

comunicativo tra appartenenti a culture e lingue differenti, e viene creato semplificando

al massimo la lingua attraverso la riduzione o l’assenza di qualsiasi forma di flessione

morfologica e attraverso il ruolo assegnato al lessico. creolizzazione,

Altro elemento della dinamica linguistica è quello della un processo che

consente al sistema di arricchire la sintassi delle sue parti costitutive (nelle lingue creole

nascono dei sistemi di flessione nominale e verbale). Tale arricchimento avviene in

funzione del numero crescente di esigenze a cui il sistema si trova esposto. Da questa

metaforizzazione linguistica dell’interfaccia viene evidenziato il ruolo di strumento di

contatto definito dalle esigenze specifiche degli utenti in una ristretta area comunicativa

privilegiando lo sviluppo finalizzato a singole task. In questo modo l’interfaccia può essere

vista come un linguaggio.

UNA METAFORA PER IL MIO REGNO

Il momento più innovativo nell’evoluzione dell’interfaccia è stato quello dell’adozione di

un modello analogico capace di fornire all’utente (GUI “graphic user interface”) la

visualizzazione delle azioni possibili. Il flusso seriale della comunicazione fu spezzato con

l’introduzione di bivi metaforici, in cui era impossibile fermarsi il tempo necessario per

avere un quadro globale di possibili scelte; furono rese possibili forme di linguaggio

gestuali (pointing clicking), in sostituzione del flusso lineare linguistico con un diverso

orientamento dei processi cognitivi coinvolti. L’introduzione fu suggerita da studiosi

come Engelbart e riguardò un insieme di innovazioni (GUI, mouse, multimedia). Risulta più

marcato il principio della necessità di adeguarsi all’utente.

Il passaggio ad una strategia user-oriented ha finito con l’imporre come criterio principale

delle scelte la soddisfazione del consumatore e delle esigenze del mercato, con la

conseguente necessità di adattare l’oggetto/strumento all’utente finale: è una tendenza

che ci ha portato alle norme si usabilità e accessibilità; l’obiettivo è quello di rendere

invisibile l’oggetto all’utente in modo che questi possa procedere allo svolgimento del suo

compito senza una conoscenza e attenzione specifica allo strumento o al suo linguaggio,

facendo ricorso unicamente alle conoscenze “naturali”.

Le abilità umane a cui si fa riferimento sono quelle fisiche, legate ai cinque sensi, e quelle

visualizing)

mentali. Un problema centrale è quello della traduzione visiva (

frames

dell’informazione linguistica e scritta, mirando a compattare informativi,

caratterizzati da un ruolo crescente attribuito alle attività di messa in evidenza e di

orientamento del processo di lettura e di comprensione dell’utente. La prevalenza

dell’analogico e dell’iconico nella creazione delle interfacce ha raggiunto il suo culmine;

l’interfaccia grafica raggiunge le finalità di apprendimento e di uso in processi didattici.

Alan Cooper arriva a considerare l’idea del ricorso alla metafora come punto di partenza

nella progettazione di interfacce; le sue motivazioni sono i limiti di una perfetta

riconoscibilità della metafora, la differenza nella percezione dello strumento, la penuria

di buone metafore e quindi la necessità di dover usare altri metodi. Per Alan Kay, padre

Xanadu,

del termine “ipertesto” e progettista di l’uso di metafore ha una valenza

eccessivamente restrittiva e va a coprire lacune da addebitare a mancanza di creatività,

indicando nell’area dei giochi e delle simulazioni il luogo della migliore sperimentazione di

Smalltalk

interfacce. Più pesante il giudizio dell’inventore di che critica l’uso della

metafora del desktop e ne mette in evidenza l’incapacità di rappresentare l’ordine della

propria scrivania personale.

I vantaggi che si attribuivano alla metafora stavano nella sua capacità di sostenere e di

agganciare l’intelaiatura dell’interfaccia. La magia della metafora appariva deduttiva nella

sua capacità di rendere quasi automatico l’apprendimento, con la trasposizione del nuovo

da apprendere in circuiti concettuali già conosciuti.

Le giustificazioni teoriche proposte inizialmente furono di tipo linguistico, mentre

successivamente prevalse un atteggiamento cognitivista; nel primo caso, il riferimento

costante è alla metafora come strumento cognitivo proposto da Lakoff e Johnson,

mentre più specialistico è quello alla pidginizzazione e creolizzazione delle lingue

(Bickerton).

Nel primo caso prevale una visione pervasiva della metafora, presente e attiva in tutte le

attività rappresentazionali della conoscenza e mediatrice tra la mente e il mondo esterno.

Il meccanismo fondamentale della metaforizzazione, consiste nel ricorso a conoscenze

organizzate per indicare esperienze o nel formulare concetti astratti. È una forma

economica di conoscenza che consente di sfruttare qualcosa di già conosciuto.

L’implicito cognitivo dal conosciuto viene trasferito direttamente al non conosciuto;

questo processo analogico consente di valutare la capacità cognitiva della

metaforizzazione. I vantaggi immediati sono soprattutto nell’invisibilità del processo di

traslazione del significato; il ricorso a conoscenze implicite incluse nel quotidiano e in

genere veicolate da forme linguistiche e da forme iconiche della comunicazione

audiovisiva, televisiva.

La metafora consente di anticipare il processo di acquisizione con il ricorso a

informazioni già conosciute, di ricordare rispetto all’imparare e di usare forme mediate e

perciò semplificate.

Altro vantaggio della metafora è la capacità di dare coerenza a cose disparate, dando

loro sistematicità e senso.

Bisogna tener presenti le perplessità di Kay e di Nelson sui limiti di un completo

affidamento alla metaforizzazione: il gioco di novità e di organizzazione ha una sua forma

particolare al momento iniziale (first time users), ma tende a diventare sistema e

interviene una conoscenza esplicita e struttura. L’elemento di forza della

metaforizzazione sta nel numero di punti di contatto e di somiglianza che riesce a

stendere sotto la struttura semantica, e in questo sta anche il suo limite.

La metafora, rendendo visibile il contorno o la configurazione degli elementi o

utilizzando schemi cognitivi già in parte posseduti, svolge il ruolo di “previsione

anticipatrice”del contesto cognitivo.

I vantaggi di economia cognitiva e di strutture di apprendimento sono evidenti.

SIMMETRIA

Che speranze ha di fare bene il proprio lavoro il progettista la cui mente è rigidamente

analitica o chi ha resistenza verso la “creatività” della metafora?

La tecnica suggerita da Erickson, Cooper, Mountford è quella della descrizione

analitica delle uguaglianze o simmetrie che stanno nello svolgimento dell’operazione nella

sua realtà e quella presente nella rappresentazione utilizzata dal computer; la simmetria

può essere estesa a tutti i livelli. La differenza principale tra questa tecnica e quella

creativa si basa su intuizione e ispirazione. I vantaggi che offre questo modello di

interfaccia sono: l’uso di un framework concettuale che favorisce la coerenza della

configurazione globale; l’utilizzo di un ambiente di lavoro interdisciplinare e la sua

estendibilità indeterminata.

Questo sviluppo consente di poter cogliere le potenzialità espressive e didattiche della

role playing

creazione di ambienti di apprendimento e di lavoro fondati sul su tecniche di

drammatizzazione sviluppate da B.Laurel; in questo modo lo strumento diventa “messa in

scena” e l’attività diventa un role play drammaturgico.

TIPOLOGIZZAZIONE

Per quanto riguarda la tipologia dell’interfaccia, Anceschi ritiene che le definizioni

oscillino tra una iperestensiva (“l’interfaccia è l’incontro di due o più entità”) e una

iperspecifica (“l’interfaccia è un dispositivo tecnologico che interconnette due

apparecchiature”); la prima promette un’interazione molto stretta dell’organismo umano

con oggetti o con altre persone per mezzo di strumenti. Inoltre, indica che le finalità

delle interfacce determinano tipi di interfacce differenti: quelle fondate sulle finalità

epistemologiche che servono per fare e sapere; quelle per saper fare, anche quella che

recupera dimenticanze e quindi per far venire a sapere; e, infine quella che misura il

grado di interazione informatica tra utente e macchina.

Cooper propone di distinguere tre paradigmi:

technology paradigm,

un basato su un modello descrittivo della sequenza delle

o operazioni e della conoscenza dei progressi strumentali che le rendono possibili;

vengono spiegati il compito da svolgere secondo la procedura di elaborazione del

computer, i processi che ne rendono operative le parti, il processo di

apprendimento dell’utente fatto scorrere parallelo a quello del costruttore del

computer; in questo modo l’interfaccia si presenta come una replica di codici e

procedure;

metaphor paradigm,

un basato sull’intuizione di come le cose funzionano. Il

o successo di questo modello secondo Cooper è dovuto al fatto che le operazioni

sono ridotte e semplificate ad un nucleo compatto e omogeneo;

idiomatic paradigm: questa etichetta viene introdotta sulla base di un paragone

o tra i componenti delle GUI e l’uso di forme idiomatiche, proverbiali i figurate della

lingua di ogni giorno.

La comprensione reale viene appresa da una spiegazione, non è intuitiva. Le etichette

comode e significative conservano il valore di contenitori o di memorizzatori gratificanti

e piacevoli ma non riescono a dirci il significato e il funzionamento che dobbiamo

apprendere basato sull’apprendimento di come compiere le cose.

INTEFACCE PER APPRENDERE

I progettisti di software destinati all’apprendimento scolastico e a attività

extrascolastiche di intrattenimento, mettono fortemente in evidenza la diversità

learning styles

esistente nei dei bambini rispetto a quelli degli adulti: il bambino ha

un’interazione normale con il computer, quasi una continuazione del gioco (proviamo a

vedere cosa succede se…) senza difficoltà. Il computer può accrescere le opportunità di

apprendimento collaborativo in maniera incredibile.

Le modifiche sono riscontrabili nella creazione di una cultura differente da quella dei

genitori e insegnati; lo sviluppo di interfacce specifiche per bambini può diventare la

scorciatoia per interfacce per adulti: l’interfaccia deve percorrere i sentieri consueti

dell’apprendimento infantile.

Il menù viene a svolgere il ruolo di preorganizzatore delle attività, inserendo il singolo

atto in una configurazione di attività già conosciuta o in parte conosciuta.

QUANDO L’INTERFACCIA NON FUNZIONA

I difetti più comuni sono 3:

1. il fading, la perdita di attrattiva e l’abitudine create dalla routine d’uso, o da errori

di visibilità;

featuritis,

la quasi una vera e propria malattia, la tendenza di accrescere il numero

2. di funzioni e di opzioni. L’abbondanza non sempre è un fatto positivo, può

travolgere l’utente e diventare un ostacolo reale, creando il problema

dell’economia cognitiva e comunicativa dell’informatica di oggi;

metaphorics, l’enfasi eccessiva sulla metaforizzazione.

3.

Capitolo 7 – Un’interfaccia umana

Nelle scelte della vita non seguiamo sempre le indicazioni del ragionamento e

dell’efficienza; nella ricerca della qualità della vita non sempre l’efficienza è la strada

giusta.

Interfaccia umana secondo Jef Raskin

Scrive The Humane Interface, in cui meraviglia l’uso dell’aggettivo: il quadro di Raskin

intende aumentare l’usabilità del computer usando conoscenze operative già possedute

nell’assolvimento di altri compiti, aumentando l’operatività rispetto ai comandi di menu.

L’obiettivo di Raskin è quello di creare un computer e delle applicazioni capaci di aiutare

l’utente a fare qualcosa senza richiedergli conoscenze aggiuntive rispetto a quelle

comuni, in quanto non si è più disposti ad imparare cose complesse, il computer deve

essere uno strumento e non un oggetto che per il suo richieda apprendimento.

Il nuovo della prospettiva è dato dal porre al centro non l’utente (e quindi lo sviluppo di

un compito) ma l’umano dell’utente. L’interfaccia deve essere semplice non perché il

compito sia stato semplificato o perché sia stato adattato alla conoscenza dell’utente,

ma perché le interfaccia disegnano accordi con l’universo psicologico.

Ne derivano due leggi: una dice che il computer non dovrebbe danneggiare il tuo lavoro

o, attraverso l’inattività, permettere che il tuo lavoro diventi pericolo. L’altra dice che il

computer non dovrebbe far perderti tempo o richiederti più lavoro di quanto non sia

strettamente necessario.

La progettazione di un’interfaccia umana

Ciò si preoccupa che l’oggetto risponda a determinati requisiti per soddisfare le esigenze

dei consumatori. È una logica di marketing che è necessario correggere e integrare con la

globalità della persona umana nelle sue caratteristiche funzionali di conoscenza e di

comunicazione. Occorre quindi estendere ai punti chiavi della prospettiva di Raskin

l’insieme dei concetti di multisensorialità.

Assunto che il compito del computer è diventato quello di strumento di comunicazione,

occorre creare condizioni corrette per la comunicazione uomo – computer, non solo

sull’asse dell’usabilità, ma anche sull’asse dell’ecologia della mente, cioè sanità naturale di

interazioni tra persona e ambiente tecnico.

Diritto alla complessità

L’insistenza sulla facilitazione impedisce che la regolazione dell’uso dell’oggetto possa in

qualche modo non essere l’unico parametro di valutazione. Un uso facile è positivo per lo

svolgimento di un compito.

Deve esserci diritto alla complessità come condizione necessaria alla mente, perché a

lungo andare la facilitazione appiattisce la mente. Questo vale sia per l’adulto che per il

bambino, il quale irrobustisce la sua intelligenza anche con cose più complicate.

Queste richieste dovrebbero essere applicate anche alla rete, ma ciò sembra andare

conto i principi di usabilità. Alla fine però questo si rivela come impedimento alla

creatività e all’idee di miglioramento che ogni individuo ha. L’idea della semplificazione

assoluta mortifica le capacità di problem solving e impedisce che si sviluppi l’intelligenza,

al contrario deve stimolarla.

Nella comunicazione deve esserci complessità più usabilità, in risposta alle esigenze di

crescita della persona e della sua intelligenza.

Correttezza conversazionale

I due principi contrapposti di usabilità e complessità coinvolgono tutta la struttura della

rete comunicativa (Jakobson). L’usabilità mira a che sia il rispettato il rapporto lettore –

autore, ma l’utente deve essere protetto: da un lato non deve essere travolto da troppi

contenuti, dall’altro deve sempre essergli garantita la possibilità di scegliere e sottrarsi.

La misura nel rispetto di principi interazionali tra autore e lettore è dettata dal buon

senso e da indagini sulla soddisfazione dei clienti. Ma si possono utilizzare due gerarchie

di principi: i principi di cooperazione conversazionale di Grice e gli assiomi della scuola di

Palo Alto.

Il suggerimento di rispetto delle attese di complessità stilistica e creativa viene

confermato dalle massime che impongono il criterio “ne più ne meno” nella cooperazione

conversazionale: il tuo contributo alla conversazione sia tale quanto è richiesto, senza

darne in più.

Dalla scuola di Palo Alto viene l’invito a rispettare due tipi di comunicazione, quella

simmetrica e quella complementare. Il primo riguarda la comunicazione caratterizzata da

un rapporto paritario tra gli interlocutori e dall’utilizzo di modalità analoghe. L’altro si

fonda sull’accettazione di una relazione non paritaria per il ruolo comunicativo e gli altri

elementi di socialità (potere, interessi).

La scelta di uno o dell’altro modello, o eventuali forme miste, porta ad un rapporto

autore – lettore e ipertesto – lettore abbastanza diversi con evidenti ricadute sulla

progettazione e la realizzazione dell’ipertesto stesso.

Rispetto dei learning styles individuali

L’adattamento all’utente spesso comporta un appiattimento in modo da consentire al

maggior numero di persone di essere capite e di saper fare. Ma questa strategia livella in

basso le conoscenze e impedisce di accedere ad un apprendimento differenziato e

adeguato al proprio ritmo cognitivo.

Bisogna sempre tener conto degli stili cognitivi individuali e degli strumenti “naturali” che

l’utente possiede. Occorre sfidare l’utente anche in quello che non sa fare, in modo da

tirar fuori altre conoscenze e abilità. Tali stili cognitivi devono tenere conto delle risorse

multimediali e multisensoriali, della diversità delle intelligenze, le grammatiche d’uso. Ne

deriva anche che non si deve imporre un unico ordine progressivo per l’apprendimento

delle conoscenze né l’applicazione ossessiva dei principi di semplificazione, né dell’

“imparare solo quello che serve”.

L’interattività mittente – destinatario caratterizza in modo essenziale l’ipertestualità

web. I principi di Grice indicano una misura che esclude l’obbligo di utilizzare sempre il

massimo dell’interazione. Le sue modalità devono tener conto del contesto e delle

tattiche, del rapporto tra autore e utente, quella tra utente, strumenti e task da

compiere.

Si è insistito sul fatto che la conoscenza è sempre un sapere, che nasce da un apprendere

facendo e che diventa saper fare sviluppando abiti meta cognitivi da utilizzare in altri

ambienti.

Si pone il problema del raccordo tra metafora e iconismo nella comunicazione

ipertestuale e web. In questo caso la situazione si presenta più complessa per il bisogno di

verificare concretamente la metaforicità intrinseca di ogni interfaccia.

In breve, l’interfaccia umana deve tener conto delle varie forme di intelligenza e di

learnign styles, l’attivo ruolo dell’individuo nella costruzione delle conoscenze, anche nelle

cose banali di ogni giorno.

L’interfaccia si propone come luogo in opposizione al non – luogo, rifiuto cioè di un

ambiente che si crede valido solo perché replica di un modello (esempio del Mc Donald’s).

un’interfaccia per essere interfaccia umana non deve limitarsi a riprodurre la strategia

del Mc Donald’s, nel senso che non deve essere replica di un determinato modello.

CAPITOLO 8 COMPONENTI

La costruzione dell’ipertesto deve tener conto delle sue caratteristiche fondamentali: Il

flusso comunicativo viene controllato attraverso un’organizzazione modulare e reticolare

di contenuti in uno spazio virtuale; il rapporto di fruizione autore-testo-lettore è

caratterizzato dall’assenza di un percorso obbligato; le modalità informatiche di

realizzazione legate ad un particolare canale o software che utilizza implicano forme

differenti per i contenuti.

Occorre definire l’organizzazione dei contenuti, la prefigurazione delle dinamiche di

flusso e di fruizione;

l’ipertesto è innanzi tutto un metodo di gestione di contenuti: il sapere che vi viene

gestito è organizzato in blocchi che vengono presentati sulla base di connessioni-salti e

deve essere data al lettore la possibilità di scegliere tra più opzioni. L’operazione di

concatenazione riguarda suggerimenti di possibili collegamenti tra blocchi.

La collaborazione autore-testo-lettore, si realizza attraverso attività specifiche di

spostamento posizionali o legami suggeriti nel testo. Le conoscenze. Organizzate,

strutturate e gerarchizzate secondo criteri diversi, vengono dotate di autonomia e

utilizzate come ancora e/o come punto di arrivo di un collegamento; tale modalità di

distribuzione delle informazioni impedisce una “sbirciatina veloce” all’intero testo, ma

consente la visione di singole parti senza tener conto dell’insieme; il lettore può limitarsi a

leggere alcune parti, anche solo quelle che servono o che interessano. L’utilizzazione di

più conoscenze avviene con uno scambio interattivo tra le “offerte” dell’autore e

l’accettazione del lettore.

I blocchi di contenuto vengono offerti in funzione delle prevedibili richieste dell’utente.

Il modello funziona se l’immagine del cliente fatta dall’autore è corretta. Se non si

verificasse questo incontro, si presenterebbe il rischio reali che entrambi non

raggiungano lo scopo dell’interazione comunicativa. L’interattività: il primo perché perde

l’aggancio con l’interlocutore, il secondo perché non trova ciò per cui ha accettato di

mettersi in comunicazione. L’interattività si basa sulla condivisione di un progetto

comunicativo, che deve consentire di raggiungere gli obiettivi voluti dal lettore.

L’organizzazione dei contenuti è guidata sulla base delle scelte da consentire al lettore.

L’utente, pur con le sue limitazioni, è padrone del senso del testo, e ne può contrattare la

continuazione o gli sviluppi decidendo link dopo link. L’ipertesto assume la forma di testo

a rischio: viene letto e ricomposto solo se il lettore è invogliato a farlo.

GESTIONE DEI CONTENUTI E NODI

NODI,

I contenuti sono organizzati in blocchi compatti e autoconsistenti, autonomi. Il

termine fa riferimento alla metafora “rete da pesca”, costruita da fili annodati l’uno

all’altro, in modo che solo due siano legati tra loro, mentre a tutti gli altri è vietato

connettersi direttamente, e per farlo devono ricorrere a connessioni mediate.

Si perde la struttura sequenziale delle arti del discorso linguistico e se ne acquisisce

un’altra creata dalla concatenazione di parti, accessibili solo a blocchi attivati in punti e

in modi previsti già nella struttura sequenziale predisposta. Tale disponibilità è sotto il

dominio dell’autore dell’ipertesto.

nodo,

Il è caratterizzato da due dimensioni: quella centripeta, che ne mette in rilievo la

coerenza e l’omogeneità interna; quella centrifuga basata sul legame strutturale e

potenziale con l’esterno.

È quindi costituito da un nucleo semantico con l’indicazione della sua espansibilità

esterna. L’autonomia e l’autoconsistenza accentuano il rischio di isolamento e di

frammentarietà, rimediabili con l’assistenza dei collegamenti.

Il LINK è l’elemento vitale della rete semantica che attiva e realizza la conoscenza.

I nodi si distinguono per le gerarchie che li legano (è possibile, per esempio, distinguere

knowledge management.

quelli essenziali e quelli complementari) secondo le tecniche di

Questa operazione di frammentazione e di granularizzazione, è un momento

fondamentale che l’ipertesto condivide con altre strategie di gestione dell’informazione.

Il carattere essenziale è specifico del nodo, è dato dalla sua “linkabilità”, dal suo potersi

costituire punto d’arrivo o di partenza nella catena di costruzione del senso. Una volta

“linkato”, il contenuto viene reso disponibile per intero al lettore. Il contratto autore-

lettore vorrebbe che il punto di arrivo corrispondesse alle aspettative create o lasciate

intravedere in precedenza, ma ciò non sempre avviene. Questo mette in evidenza il

problema della dimensione del nodo e della sua granularità. Entrambe dipendono dal

progetto comunicativo perseguito.

La divisione in parti omogenee dell’insieme di un’informazione porta a frammentare il

testo in porzioni anche piccolissime. Il pericolo di dispersione viene corretto dalla

risposta di pertinenza al momento della ricezione da parte del lettore. Il rigore di una

pertinenza che promette il massimo di economia, potrebbe assumere i contorni di un

disastro in termini di coazione all’attenzione e di accesso di concentrazione richiesta.

Non troppi link per il lettore e neppure bocconi informativi troppo grandi.

Nella trasformazione di un testo in ipertesto, la costruzione dei nodi avviene in due

momenti: quelli dell’omogeneizzazione e della condensazione dei contenuti, quello della

loro compartimentalizzazione e gerarchizzazione. Con il primo si dividono le informazioni

in gruppi semanticamente o tematicamente coerenti in modo che il link porti

esclusivamente alla parte che interessa, e quindi non ci sia dispersione di attenzione e di

tempo. Con il secondo, si devono dotare le unità di una gerarchia che indichi modalità di

accesso o collegamenti impliciti attraverso o l’organizzazione logica, o l’aggiunta di titoli.

Il link indica le possibilità di collegamento dei nodi, e quindi è utilizzato per tracciare i

percorsi da un nodo all’altro. È la parte essenziale dell’ipertesto che indica le traiettorie e

le possibilità date al lettore di cooperazione con il testo.

Le caratteristiche principali dei nodi sono l’interattività, la dinamicità, la multimedialità:

l’interattività

Con è possibile inserire nuovi oggetti nel discorso testuale o suggerire

o nuove possibilità di completamento e di estensione. Lo sviluppo di metodi interattivi

crea degli stili di navigazione;

dinamicità

Con la si indicano le modalità di visualizzazione dell’ipertesto. Gli oggetti

o collegati intervengono cambiando il percorso di lettura o anche l’intera operazione di

calcolo del senso. A livello di percezione, ciò consente un timing delle presentazioni

semantiche e dei blocchi di testo;

multimedialità,

Con la si superano i vincoli di controllo e di subordinazione imposti

o dall’unico canale utilizzato. Con il computer è possibile ricorrere non solo a canali

diversi, ma anche a codici diversi di uno stesso canale. Possiamo avere nodi omogenei

o eterogenei.

I nodi garantiscono la flessibilità di una testualità e gli consentono una vivibilità in termini

di dinamismo e di energie espressive. Le potenzialità dei nodi sono infinite. Le tecniche di

costruzione dinamica dell’ipertesto, seguono una dinamica relazionale guidata dai

database, che si assicura variazioni del sito in funzione del verificarsi di eventi

particolari, da “nodi calcolati”, ottenuti cioè attraverso un calcolo di variabili previste in

database relazionali.

TIPOLOGIA DEI LINK

I link possono indicare all’utente i parametri del suo movimento: i punti dove andare,

quelli in cui si è stati, dove resterebbe da andare, le possibilità di movimento sono molte.

L’insieme di quelli ritenuti come più comodi o funzionali, sono raccolti in una barra di

navigazione. A seconda della funzione che svolgono li possiamo raggruppare in 3

categorie:

Posizionali si indicano un punto fisso di collegamento (inizio, fine, menu principale

o ecc);

Relazionali se indicano un collegamento nel testo di un collegamento possibile legato

o ad una associazione testuale o originata dal testo;

Funzionali se svolgono delle attività standard previste nel tipo di ipertesto (database,

o vocabolari, grammatiche).

Bisogna disporre dei comandi per accedere al nodo, per il passaggio da un nodo all’altro.

Un momento importante per una conclusione positiva della cooperazione testo-lettore

spesso si trova nell’indicazione del contenuto attraverso le etichettature dei nodi.

Per quando riguarda i link, Landow ne suggerisce di bidirezionali, di filtro,

metastrutturali, isomorfici, annotativi, anche impliciti, e include un tipo che dovrebbe

contenere i comandi per poterne creare di nuovi.

La varietà consistente di link per il lettore, ad un pre-testing risultò negativa in quanto

distraeva il lettore, rallentava il processo di apprendimento e richiedeva un grado di

concentrazione piuttosto pesante. Utili si rivelarono invece le liste dei siti visitati, siti

(back links)

correlati o di risorse parallele, inversi o di revisione.

La pratica di Internet presenta un uso anomalo di link; sono i collegamenti automatici

con siti posti fuori di quello in cui si opera che attivano banner e promo commerciali:

violano il contratto autore-lettore imponendo argomenti non previsti. Il link, ha un altro

compito sostanziale per l’interazione autore-lettore, quello di indicare la tessitura delle

gerarchie previste per i contenuti e per i percorsi, espressa anche in termini di visibilità,

per indicare i movimenti e le connessioni che l’autore ritiene più importanti.

NAVIGAZIONE

Alla struttura dei link si debbono due caratteristiche strutturali dell’ipertesto: la prima

riguarda l’assenza di una fine o di una fine univoca per certi tipi di ipertesto; la seconda

che le unità possono essere percorse in modi differenti. La necessità di orientare e di

guidare il percorso all’interno di un ipertesto, resta fondamentale nei confronti di utenti

esperti e non. L’usabilità non può mirare solo all’efficienza della navigazione, ma anche a

garantire condizioni di sicurezza e di serenità.

Sono necessari strumenti di localizzazione aggiuntivi rispetto a quelli del tradizionale

testo. Il disorientamento dipende da mancanze di organizzazione e di indicazioni,

dall’ampiezza dell’ipertesto e dalla sua complessità. Il problema del disorientamento deve

essere esaminato nel comportamento dell’utente. La spazialità in cui ci si muove è doppia:

una informatica, costituita dagli strumenti e dalle indicazioni di navigazione; l’altra

concettuale che riguarda l’architettura dei movimenti che si rendono possibili per il

lettore. Spesso il disorientamento di questi nasce da quello dell’autore e dalla sua ipotesi

di architettura dei contenuti.

Le barre di navigazione garantiscono la certezza di sapere dove si è, come vi si è arrivati,

la possibilità di tornare indietro, di andare velocemente alla fine e uscire o andare a dei

punti di riferimento centrali (menu) che facilitano la lettura e il percorso.

Le caratteristiche delle guide alla navigazione disegnano la dinamica dell’acquisizione

delle informazioni. Quelli essenziali sono la multilinearità, la connettività e la reticolarità.

Multilinearità indica la libertà di scelta tra più opzioni di percorso consentite dalla

o strutturazione del testo e dalle barre di navigazione. Lo spazio del testo classico è

sempre davanti, dall’inizio alla fine; nei testi elettronici è quello dei percorsi. Spesso la

libertà consentita al lettore viene presentata più ampia di quanto non sia nella realtà:

non si può parlare di movimenti liberi perché sono previsti e controllati.

Connettività è il modo di collegare le unità scansite, quasi una “sequenzialità

o seconda” all’interno della navigazione. Può essere quella del lettore: il percorso

compiuto, le scelte e le motivazioni cognitive. Nella logica della connettività si trova

anche quella della cognitività: riconoscere link, selezionarli e farli operare; al

riconoscere non segue necessariamente la scelta, e quindi il significato della pagina è

fatto anche da link rifiutatati.

Reticolarità stabilisce la trama delle relazioni tra unità semantiche nella loro

o disponibilità positiva o negativa ad un’associazione. La reticolarità pone il problema

del posizionamento spaziale (inizio-fine, centro-periferia) e dell’orientamento, di che

cosa debba venire prima o debba essere considerato centrale: il centro si sposta e

tutto tende a diventare periferia. Consente una modalità di lettura a frammenti.

Il carattere sistematico di una costruzione testuale viene dato dalla sua “chiusura”:i suoi

componenti risultano incastrati saldamente tra di loro in un rapporto di continuità.

Il principio di chiusura, venne enunciato per la prima volta dai teorici della

Gestalttheorie con una valenza universale e viene confermato dall’esperienza della

progettazione di un ipertesto: il momento più difficile è proprio quello dell’architettura

complessiva e della disposizione delle parti. La sensazione di apertura dipende dalla

maggiore libertà e autonomia di movimento che si ha rispetto al libro. La lettura di un

ipertesto può dirsi completa quando sono state recuperate le informazioni ricercate.

L’ipertesto insiste maggiormente sulle sensorialità spaziali. La navigazione Web viene

concepita come realizzata in termini di una mappa cognitiva simile a quella dello spazio

fisico e quindi segnata da strade, autostrade, cartelli e indicatori vari: ognuno sceglie il

proprio percorso in base a schemi e motivazioni del tutto individuali.

LA STRUTTURA

Nell’orientare l’utente si rivela utile scegliere un tipo di struttura dell’ipertesto. I modelli

più comuni sono ad albero, lineare, circolare, tridimensionale.

Nella struttura ad albero la sequenza delle pagine/blocchi parte da un unico punto

 (tronco) per poi dividersi in rami principali e secondari. Si ritrova nella struttura

delle cartelle o dei menu a tendina;

Nella struttura lineare il punto di partenza è il menu o un indice che collega alle

 parti, come un indice di libro posto all’inizio e che può fare andare alla parte

voluta. Per orientare la struttura è preferibile che, dopo la partenza verso un

blocco, sia previsto un ritorno al menu. In questo caso si ha il vantaggio di un

unico punto di raccordo e di controllo dei movimenti;

Nella struttura circolare ogni unità è legata a quella che la precede e a quella che

 la segue. In questo caso l’home page conserva la funzione di inizio, ma perde quella

di punto di raccordo;

Nella struttura tridimensionale per ogni unità sono possibili più collegamenti. È il

 lettore che leggendo, determina se e quando rendere visibile l’informazione in base

alle possibilità di scelta previste.

Capitolo 9 – Metafore ed Ipertesto

La discussione sulla metafora ha caratterizzato in modo particolare il momento

dell’affermazione delle GUI. Per spiegare il successo commerciale si è fatto ricorso a

teorie linguistiche, ma si vedeva in questo modo la metafora come abbellimento

espressivo, spesso ricercato e non funzionale. Un cambiamento radicale è avvenuto negli

anni ’90, quando si adottano metodologie cognitive applicate al processo metaforico, la

cui importanza è riconosciuta in aree sensoriali diverse.

La traduzione in metafore di sensazioni e concetti sembra essere l’anima delle attività

mentale e creativa dell’uomo diffusa nella comunicazione web. La metaforizzazione

inoltre copre tutti gli aspetti della vita quotidiana e no; è presente soprattutto là dove si

ha bisogno di dare espressione a sensazioni multisensoriali o tradurre quelle di un’area nei

termini di un’altra area. A rivelare questo ruolo non sono le comuni metafore linguistiche,

ma soprattutto quelle visive e quelle che usano altri sensi come l’olfatto o il tatto.

Nell’ambito di studio dell’interfaccia uomo – computer, faremo riferimento alla metafora

non nella sua accezione classica linguistica, ma come strumento basato su meccanismi di

somiglianza e paragone. L’attenzione viene focalizzata cosi sull’aspetto cognitivo.

Le teorie di Lakoff e Johnson e dei seguaci della Blending Theory hanno una loro

prospettiva concreta e esperienziale di carattere tipologico . organizzativo: la metafora

pervade la vita di ogni giorno. Il nostro modo di pensare e le nostre azioni sono,

fondamentalmente, metaforiche in natura.

Secondo la definizione tradizionale, la metafora viene definita un traslato,

sostanzialmente un trasferimento di significato, sulla base di un rapporto di somiglianza

parziale. Questo p un modo di esportare le conoscenze di un’area e utilizzarle senza

bisogno di doverne acquisire ex novo.

La metafora inoltre deve avere come tratto quello di una base comune tra gli utenti che

la utilizzano, il suo valore dipende anche dalle condizioni di convenzionalità acquisite.

Senza questa base cognitiva comune la metafore sarebbe incomprensibile.

Le perplessità associate sull’uso del desktop mettevano in evidenza questo vuoto di

comunanza cognitiva: la base di somiglianza è solo il primo momento del passaggio da una

sfera all’altra, la contestualizzazione del significato ne completa e da un senso all’intera

operazione. La forza della metafora, più che su una singola parola, sta nell’energia che

viene a creare nel campo metaforico di cui fa parte. È fortemente vicina all’idea di campo

semantico. Per carrefours linguistici, secondo Belin – Millèron, si intendono le

associazioni verbali create in virtù di una serie di correlazioni linguistiche capaci di

creare una logica concreto – complessa.

Nella discussione sulla metaforizzazione e sul web di solito ci si trova di fronte alla

necessità di distinguere quelle che è metaforico da quello che è semplicemente simbolico.

Un equivoco fa si che tutto quello che va sotto l’etichetta di simbolico vada incluso

sotto l’etichetta di metaforico. Questo però accelera il processo di oscuramento della

metafora.

La metafora del desktop mette in risalto il fatto che la sua comprensione nasce solo dalla

contestualizzazione e dal riconoscimento delle convenzionalità contenute: unisce infatti

il mondo del computer con il lavoro d’ufficio: i due settori si sovrappongono in un’area

unitaria.

Altro arricchimento del linguaggio metaforico è la sua connessione con tutta l’area della

semiologia grafica: oltre che modo efficace di esprimere concetti e di ricordarli al meglio,

prima ancora di rappresentarle, è già organizzazione delle conoscenze. L’intreccio sugli

assi metaforico e simbolico di parola e immagine costituisce il crocevia fondamentale per

i processi di visualizzazione dei contenuti e della loro rappresentazione. In questa

prospettiva assume importanza particolare la verifica della validità delle metafore usare

come strumenti di richiamo e di spiegazione, come mezzo per trasformare quella che

sarebbe stata ripetizione del conosciuto e quindi ridondanza in elemento carico di novità

e quindi di informazione.

Per quanto riguarda il ruolo cognitivo, oltre che a creare attenzione (funzione fatica), a

facilitare la memorizzazione, la metafora interviene nel processo di comprensione, perché

inserendo il nuovo in schemi cognitivi già conosciuti, attiva circuiti cerebrali già visitati.

In tal modo si traduce uno schema nuovo in uno già noto. Ciò rende l’ambiente di

apprendimento meno impegnativo.

I momenti principali in cui interviene la metafora riguardano:

a) il controllo dell’informazione mediante il loro ordinamento (serialità ordinata): in questo

modo prevale la necessità di imporre un ordine e una forma al flusso disordinato

dell’informazione.

b) l’arricchimento progressivo di complessità, secondo uno schema gerarchizzato di

informazioni, che un’informazione di base può essere completata e arricchita con

l’aggiunta di altre informazioni.

Efficacia

Nella comunicazione web o ipertestuale si intrecciano metodologie differenti di

comunicazione: digitale e analogica , questa nella forma metaforica o iconica. Le ultime

due sono impegnate costantemente in un lavoro di ibridazione e commistione. Nella

seconda c’è il richiamo di un concetto diverso e autonomo e un passaggio semantico

netto, nel primo il passaggio c’è ma si trasforma in blending di componenti semantiche dei

campi interessati.

La metafora aiuta a creare una sensazione di controllo e organizzazione. Consistenza e

profondità trovano la loro forza nel fatto che nelle metafore è possibile fare ricorso a

strutture basiche perché presenti nella vita di ogni giorno e nel pensiero di ogni giorno,

come riflesso di una base esperienziale. La loro comprensione non richiede spiegazione

perché embolie, cioè incarnate, legate alla vita reale.

Il problema dell’efficacia della metafora si aggancia a questi meccanismi: la metafora non

deve essere spiegata; se lo deve essere allora vuol dire che la quantità di elementi comuni

per il mapping non è sufficiente a coprire la distanza tra i due termini della metafora

(sorgente e obiettivo). L’obiettivo da raggiungere è quello di una via più economica di

comunicazione per mezzo della scorciatoia/sovrapposizione di due campi, uno conosciuto

e l’altro parzialmente ignoto.

L’uso di metafore si rivela più utile non tanto nella creazione di un interfaccia, ma nella

spiegazione di una procedura o di un’attività. I criteri di valutazione indicati sono la

comprensibilità e la familiarità, facilità di interpretazione.

Metafore tra ipertesto e web

L’uso delle metafore del web è talmente pervasivo da ridurne la visibilità nella percezione

degli utenti e in parte le ha modificate aggiungendovi o facendo diventare prevalenti le

connotazioni date dalla rete.

La rete metaforica che esprime il web è il risultato di un lavoro di accumulo e

ri-mediazioni. Le metafore spesso non servono ad esprimere direttamente una realtà, ma

un punto di vista; sono create o utilizzate per interpretare un fatto o un’esperienza

arricchendola di valori e riferimenti culturali; non mirano a sovrapporre totalmente il

campo d’origine con quello di destinazione.

I campi metaforici applicati al web, e quindi all’ipertesto, sono fortemente intrecciati tra

di loro e possono essere percepiti in modo diverso anche dalla stessa persona a seconda

del prevalere del suo interesse.

Percezione ed essenza

La ricostruzione della genesi della mappa metaforica d internet/web, e quindi

dell’ipertesto, assume l’aspetto di ricostruzione di modi storici in cui la visione del web si

è concretizzata. Tale ricostruzione serve alla comprensione delle modifiche reali a cui

essa è andata incontro.

La domanda non è più su come deve essere internet, quali debbano essere le sue finalità e

la sua politica comunicativa, ma su cosa ne hanno fatto e ne vogliono fare gli utenti.

L’interrogativo che ci si deve porre è se la dimensione internet modifica l’ipertesto e in

che cosa. La struttura del web non tende a mantenere intatte le caratteristiche

dell’ipertesto. Due le diversità più evidenti. La sua struttura topologica di accumulo

individuale (una pagina si può aggiungere all’altra senza verifica su rapporti di sinergia e di

congruenza con il resto) confligge con l’idea di coerenza progettuale della costruzione

dell’ipertesto, se non nella sua fruizione.

La seconda diversità riguarda il grado e le modalità scelte per l’interazione della triade

website-autore-utente. L’ipotesi qui proposta è che i processi della metaforizzazione di

internet abbiano luogo sulla base dell’ampliamento sociale e degli usi che di volta in volta

ne fanno gli utenti.

Le metafore di internet nascono e razionalizzano, spiegano ed estendono l’uso,

introducono e suggeriscono osmosi con una realtà e portano alla modifica non solo della

percezione dello strumento ma anche delle funzioni e della sua struttura.

Due sono le metafore di internet: quella di rete fondata sulla connessione e quella di

testo attenta alla tessitura e all’ordito dei segni. Il primo ha guidato la costruzione fisica

e funzionale della rete, il secondo ha ispirato progetti di comprensione della conoscenza

umana e ipotesi del suo sviluppo.

Lo starting point tecnico

L’idea di connessione di più computer nasce dalla necessità, avvertita negli anni ’70, di

superare alcune limitazioni nell’uso di strumenti informatici e di procedure di calcolo, in

termini di potenza e velocità di elaborazione, di memorie di massa. Dinanzi alla onerosità

di attività sostitutive come le procedure di trasferimento di dati, emerse spontanea l’idea

di trovare qualche collegamento o filo che consentisse il contatto tra realtà separate o

distanti.

L’obiettivo base di internet è stato inizialmente quello di rendere possibile l’integrazione

in tempo reale delle macchine virtuali attive sui mainframe prima, workstation e pc poi.

L’uso contemporaneo di una macchina fisica, detta mainframe, da parte di molti utenti

successivamente si estese a indicare anche alla condivisione senza alcuna limitazione delle

conoscenze. Questa idea è alla base del WWW.

L’aumento consistente dei computer collegati determinava anche graficamente la forma

di una rete simile a quella da pesca.

Le linee di metaforizzazione si sviluppano a partire dalle percezioni che si avevano dei

due elementi, computer e collegamento. Il computer era visto come contenitore di dati,

quindi come sostituto parziale della persona. La potenza di un computer non è racchiusa

in quello che contiene, ma nelle connessioni che consente di operare. Ancora una volta è

il filo che fa la differenza e che arricchisce. La reticolarità e la connessione diventano il

tratto fondamentale della nuova tecnologia. Questa funzione di ponte apre la porta alla

serie metaforica legata alla comunicazione, come procedura di condivisione di prodotti,

idee, concetti.

Il filone letterario

Nel testo si coglie una frammentazione che consente l’applicazione della reticolarità e di

altre caratteristiche che anche se condivise, hanno una visibilità differente. Nella

ricchezza teorica della teoria testuale, l’ipertesto è una seconda struttura testuale, di

tipo relazionale, che si aggiunge a quella propriamente testuale.

Il gioco metaforico

Ogni attività al computer viene percepita sulla base della metafora di riferimento. La

storia delle metafore utilizzate rivela le variazioni di uso che l’utente ne ha fatto. Gli usi

delle metafore e gli atteggiamenti degli utenti di oggi non sono gli stessi degli anni scorsi.

Così, la metafora di desktop considerata da milioni di utenti come la porta magica la

porta magica quasi inarrivabile all’inizio, oggi è considerata la più sciocca tra tutte.

Analoga quella che vedeva il computer come cervello elettronico.

Questo approccio è stato applicato a tre metafore diverse: desktop, windows e web. La

prima rifletteva un mondo di impiegati alle prese con macchine da scrivere, calcolatrici

da tavolo, fogli e penne; la seconda si apriva attraverso il multitasking e il time-sharing ad

un uso non sequenziale delle attività del computer; la terza riflette a sua essenza

comunicativa: un file prima si salvava su un floppy o su hard disk, oggi invece si “invia a”, e

la grafica di appoggio fa vedere il foglietto che vola da un punto all’altro.

Non tutte le metafore hanno la stessa valenza: ce ne sono di primarie, di secondarie e

cosi via. È necessario distinguere le metafore semplici da quelle complesse o ibridate.

Spesso più che di metafore si tratta di semplici paragoni.

Le traiettorie della rete

Le traiettorie della galassia metaforica del Web e dell’ipertesto sono legate alle idee di

connessione e di reticolarità, di spazialità intesa come luogo e come insieme di attività

connesse, di libro come sistema di lettura/scrittura e di contenitore organizzato di

conoscenze.

Quella della connettività è la principale e fornisce anche le denominazioni più comuni

all’ipertesto e a Internet come “net”, “network”, “ethernet”, e l’indicazione verbale

fondamentale di “connettere”. Essa dà origine ad una seconda area, quella di reticolarità,

e attraverso questa, alla terza, una forma particolare di spazialità specializzata

all’attraversamento di un percorso o al trasporto di canali di trasferimento di dati da un

contenitore all’altro o da un luogo all’altro. L’azione di connettere presuppone l’esistenza

di due capi auto consistenti e autonomi e l’azione di unirli con un nodo, che,

conservandone l’autonomia, ne fa una nuova entità.


PAGINE

56

PESO

434.32 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Riassunto per l'esame di Linguistica computazionale, basato su appunti personali e studio autonomo del testo consigliato dal docente Ipertesto Sermo Communis, Di Sparti . Il documento è costituito dalla spiegazione dei concetti fondamentali, quali: l'ipertesto come genere di comunicazione quotidiana, la prospettiva di alfabetizzazione ipertestuale, il locus del medium o del genere, la compartimentalizzazione delle informazioni.


DETTAGLI
Corso di laurea: Corso di laurea in lettere
SSD:
Università: Palermo - Unipa
A.A.: 2010-2011

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher trick-master di informazioni apprese con la frequenza delle lezioni di Linguistica computazionale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Palermo - Unipa o del prof di sparti antonino.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in lettere

Letteratura italiana - romanticismo - Riassunto esame, prof. Sole
Appunto