Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

6

brani documentari), della radio (stacchi audio), dello spot pubblicitario (animazioni, inserti video), del cinema

(sigle di apertura e chiusura), delle chat e dei newsgroup negli spazi dedicati alla comunicazione

interpersonale. La combinazione di linguaggi e sistemi semiotici che si giocano in un portale web è

Analogamente, fuori da Internet, sono multimediali in

multimediale nel senso più pieno di questa parola.

senso pieno alcune enciclopedie su Cd-Rom. Il concetto di testo sincretico è più ampio di quello di

multimedialità, perché comprende sia la semplice multisensorialità, sia la multimedialità vecchia, sia quella

nuova: dipende da quali sono i linguaggi coinvolti nella pluralità cui fa riferimento la definizione greimasiana.

Si va quindi dal sincretismo monosensoriale di un annuncio pubblicitario a stampa, che accosta un’immagine

fotografica ad uno slogan al sincretismo multisensoriale "vecchio" di un film, al sincretismo

(visual) (headline),

multisensoriale, multimediale e nuovo di un portale web.

2. INTERFACCIA, INTERAZIONE, INTERATTIVITÀ.

Le interfacce informatiche.

I.

Il concetto di interfaccia nasce in informatica, anche se oggi viene applicato spesso, per estensione, anche a

oggetti che non sono artefatti informatici. In informatica si distinguono innanzi tutto le interfacce hardware o

fisiche dalle interfacce software. Sono i dispositivi di interconnessione che

interfacce hardware o fisiche

servono a rendere compatibili a far lavorare assieme sistemi fisico-elettronici che hanno caratteristiche diverse

a livelli diversi di complessità (es: la porta seriale, la porta parallela e la porta Usb di un personal computer,

che servono a collegare al computer altri dispositivi hardware, come stampanti, scanner, mouse, cellulari, ..).

Le sono invece linguaggi e codici che programmi software con caratteristiche diverse

interfacce software

usano per comunicare fra loro e con l’hardware della macchina su cui risiedono. La maggior parte dei sistemi

operativi, come ad esempio Microsoft Windows, forniscono ai programmatori un’interfaccia per i

(Api), che è un insieme di routine, protocolli e strumenti che servono a sviluppare

programmi applicativi

programmi coerenti con quel sistema operativo. Per estensione, il termine "interfaccia" designa le componenti

sia hardware che software di un elaboratore elettronico che permettono alle persone di comunicare e lavorare

con il sistema. Spesso ci si riferisce con più precisione a questo senso del termine con l’espressione interfaccia

(user o UI) in un comune Pc (dal punto di vista hardware) lo sono: lo schermo, la tastiera

utente

interface

e il dispositivo di puntamento (che spesso è il mouse, ma può anche essere una o un come

trackball touchpad,

in molti computer portatili) - sulle console per videogiochi lo sono, oltre lo schermo, la tastiera e il mouse, il

(ormai un po’ fuori moda) e il (caratterizzato dal fatto che si tiene con 2 mani e ha un maggior

joystick joypad

numero di comandi e combinazioni rispetto al joystick)

Dal punto di vista software, l’interfaccia utente di un programma è l’insieme del programma che

di comandi

sono direttamente percepibili e manipolabili dall’utente; è ciò che un programma fa apparire dentro lo

per cui una persona, combinando le azioni sugli elementi dell’interfaccia fisica (dispositivo di

schermo,

puntamento e tastiera) con azioni su ciò che vede nello schermo, può impartire comandi alla macchina e fare

cose con la macchina. L’utente può accedere a questi comandi in modi diversi a seconda del programma:

(1) digitando sulla tastiera parole speciali che il programma comprende

(2) schiacciando con le dita un tasto funzione (che ha esiti diversi a seconda del programma)

(3) scegliendo col dispositivo di puntamento un comando da un menu, cioè da una lista di comandi

possibili che appare a schermo

(4) selezionando col dispositivo di puntamento un comando bottoni o altri oggetti grafici nello schermo

Se intesa come insieme di comandi visibili nello schermo, l’interfaccia può essere quindi a caratteri, a

Posto che i tasti funzione (caso 2) sono operativi in tutti e 3 i tipi di interfaccia, un

menu, oppure grafica.

programma ha un’interfaccia (o nel caso (1), cioè quando l’utente può

a caratteri a linea di comando)

impartire comandi digitando sulla tastiera sequenze di carattere Ascii che il programma comprende come

parole-chiave. Questo tipo di interfaccia è stato il primo, storicamente, ad apparire e ha caratterizzato per

anni i Pc dotati di sistema operativo Ms-Dos. Un programma ha un’interfaccia (caso 3) quando

a menu

esprime i comandi come liste (menu) di parole, sintagmi o frasi fra cui l’utente può scegliere usando la tastiera

o il dispositivo di puntamento. I menu si trovano sia nelle interfacce a caratteri che in quelle grafiche. Un

programma ha un’interfaccia (Graphical o Gui) (caso 4) se mostra i comandi sotto

grafica User Interface

forma di bottoni e altri oggetti grafici (icone) che l’utente può scegliere usando la tastiera o il dispositivo di

puntamento (ma anche sotto forma di menu, a loro volta presentati come oggetti grafici). La prima interfaccia

grafica fu progettata negli anni 70, che introdusse il sistema delle icone sul desktop (cioè sul piano della

scrivania). Nel 1979 Steve Jobs, fondatore di Apple, riprese questi risultati per i Pc che il suo gruppo stava

progettando. Dopo il fallimento nel 1983 di Lisa, il primo Pc di Apple, nel 1984 Apple introdusse il Macintosh,

che fu un successo: da quel momento le interfacce grafiche si sono diffuse a tal punto che oggi sono le

interfacce per antonomasia. Quando Apple presentò il computer Macintosh, lo accompagnò con le Macintosh

Human Interface Guidelines che enunciavano le regole generali che gli sviluppatori di software per Macintosh

avrebbero dovuto seguire. Le Guidelines hanno orientato tutta la produzione successiva di software con

6

7

interfaccia grafica, non solo per i computer Apple, ma per molte piattaforme diverse, a partire da Microsoft

Windows, che uscì un anno dopo, nel 1985, con la prima versione della sua interfaccia grafica ricalcata su

quella di Apple. Per questo le Guidelines sono un classico sia per gli studi sulle interfacce utente, sia per quelli

sull’usabilità. Per questo l’analisi semiotica dell’interfaccia e dei concetti di interazione e interattività che le

sono connessi parte da qui.

Le "Guidelines" di Apple per l’interfaccia grafica.

II.

Il primo capitolo delle Guidelines "Human Interface Principles" è il più importante dal nostro punto di vista

perché è indipendente dai dettagli tecnici rivolti ai programmatori e riassume "la e la psicologia

filosofia che

Questa filosofia generale viene enunciata in (1)

stanno dietro all’interfaccia Macintosh". 13 principi:

metafore, (2) manipolazione diretta, (3) vedi-e-punta, (4) coerenza, (5) WYSIWYG, (6) controllo da parte

dell’utente, (8) feedback e dialogo, (8) clemenza, (9) percezione di stabilità, (10) integrità estetica, (11)

mancanza di modalità, (12) conoscenza del proprio destinatario, (13) accessibilità. Questi principi verranno

riorganizzati e approfonditi in chiave semiotica, anche andando oltre quanto esplicitamente detto nelle

Guidelines.

II.I. Metafore. Le Guidelines sostengono l’importanza delle metafore nelle interfacce grafiche: grazie

alle metafore le persone, usando un artefatto informatico che non conoscono o conoscono poco, possono

trarre vantaggio da conoscenze più consolidate su oggetti, azioni e situazioni della vita quotidiana. La

principale metafora introdotta da Apple per l’interfaccia del sistema operativo è quella della scrivania di un

lo spazio dello schermo va immaginato come fosse un cioè il piano di una scrivania, mentre

ufficio: desktop,

le icone sono oggetti che stanno sul piano della scrivania e rappresentano collegamenti a programmi o dati. I

programmi e i dati sono contenuti in cioè schedari, contenitori. Gli oggetti sul

files, cartelle di schede,

desktop possono essere e tutte queste azioni avviano

aperti, chiusi, spostati, archiviati, gettati nel cestino,

processi che la macchina esegue sui programmi o dati a cui le icone sono collegate (accesso, salvataggio,

cancellazione di dati, ..). Un’altra metafora è quella delle l’interfaccia del sistema operativo

finestre:

suddivide lo schermo in finestre, cioè in aree rettangolari che mostrano ciascuna un programma o un file di

dati, e che possono essere aperte o chiuse, allargate o ristrette, spostate o sovrapposte azionando il dispositivo

di puntamento. Un’altra metafora è quella della ad esempio, la pulsantiera principale di

pulsantiera:

Windows (dalla versione 95 in poi) compare a salita verticale, adiacente al lato sinistro della cornice di

plastica del monitor, quando si schiaccia il bottone "Start"/"Avvio". Altri bottoni della pulsantiera principale

stanno sulla cosiddetta "barra di avvio veloce" o "barra delle applicazioni", sul lato orizzontale inferiore dello

schermo, subito a destra di "Start". La pulsantiera principale degli applicativi è invece di solito orizzontale in

alto, adiacente al bordo superiore della finestra che incornicia il file su cui si lavora. Sia nei sistemi operativi

che nelle applicazioni, ci troviamo sempre di fronte a pulsanti o bottoni da schiacciare per attivare i diversi

comandi. Questo schiacciamento è duplice:

letterale, con le dita della mano e

metaforico, perché rappresentato visivamente da pulsanti disegnati, che hanno icone o parole soprascritte

che descrivono le loro funzioni, e hanno ombre e sfumature che, con effetti tridimensionali, distinguono lo

stato in cui i pulsanti si trovano

Applicando, come ha fatto i modi di esistenza semiotica, possiamo distinguere i diversi stati dei

Zinna,

pulsanti in: il pulsante è più chiaro degli altri o "sporge" meno degli altri, cioè è disabilitato nella

stato potenziale:

situazione in cui ci troviamo (ma è potenzialmente attivo in altre)

il pulsante ha le scritte scure su fondo più chiaro, cioè è attivo se o

stato virtuale: vogliamo dobbiamo

schiacciarlo il pulsante ha i colori invertiti (scritte chiare su fondo scuro) o sporge più degli altri quando

stato attuale:

ci passiamo sopra con il mouse, il che vuol dire che effettivamente schiacciarlo e, cosa

possiamo sapendo

comporta il fatto di farlo, stiamo per farlo

il pulsante viene schiacciato e il comando si avvia

stato realizzato:

Uno dei modi di scegliere un comando sul desktop o in un programma è quello di selezionare la voce di un

menu. Un può essere:

menu

è la pulsantiera principale dei programmi

principale:

è la lista di comandi che compare a discesa quando si seleziona una voce della pulsantiera

a tendina:

principale, e presenta ulteriori opzioni relative alla scelta principale

(introdotto da Windows 95) è il menu a tendina che compare quando si

a scelta rapida o contestuale:

fa clic in certi punti dello schermo col tasto destro del mouse, e presenta scelte specifiche per l’elemento

posizionato sotto il puntatore 7

8

Manipolazione diretta, vedi-e-punta, controllo da parte dell’utente, clemenza, mancanza di modalità.

II.II.

Secondo le Guidelines l’interfaccia grafica deve dare all’utente l’illusione con le mani

di agire direttamente

sugli oggetti rappresentati nello schermo Il meccanismo fondamentale con cui

(manipolazione diretta).

un’interfaccia grafica dà agli utenti questa sensazione di manipolazione diretta è quello del che

vedi-e-punta,

funziona così: si usa il dispositivo di puntamento, con cui si seleziona nello schermo l’oggetto grafico su

prima

cui si vuole agire, si sceglie l’azione che si vuole compiere sull’oggetto, in uno di questi modi:

poi

si fa sull’icona di un programma o di un file di dati, come quando si apre un testo o si fa

doppio clic

partire un programma dal desktop

si fa sulla rappresentazione grafica di un pulsante, come quando in un word processor (=

un solo clic

elaboratore di testi) si avvia una ricerca, la stampa di un testo o il suo salvataggio

si seleziona la voce (parola o frase) di un menu, si agisce su di essa con come fosse

prima poi un solo clic,

un pulsante

si trascina un’icona su un altro oggetto grafico (drag = trascina e rilascia), come quando si

and drop

eliminano documenti trascinandoli sull’icona del cestino o si sposta un file da una cartella all’altra

Per dare agli utenti la sensazione di manipolare direttamente gli oggetti sullo schermo sono necessari, in fase di

progettazione, alcuni accorgimenti di base, fra cui il fatto che gli oggetti restino sempre visibili durante la

manipolazione e che i risultati delle azioni degli utenti appaiano Alcuni

immediatamente, istantaneamente.

studi e ricerche degli anni 70/80 calcolarono i tempi esatti di questa percezione di immediatezza, che non

furono ripresi esplicitamente dalle Guidelines di Apple, ma che hanno assunto grande rilievo nella letteratura

successiva sulla web usability. Questi sono i tempi della percezione di immediatezza:

per avere la sensazione che il sistema risponda al nostro comando, il tempo che trascorre

istantaneamente

fra il clic del mouse (la pressione di un tasto, ..) e l’esecuzione del comando dev’essere di circa di secondo

1/10

il limite massimo perché il nostro flusso di pensieri non si interrompa quando agiamo su un comando è di

di secondo fra il clic e l’esecuzione del comando, anche se abbiamo la

circa Quindi, oltre

1secondo. 1/10

sensazione di non avere più il controllo del sistema, il ritardo non sembra eccessivo se il comando

immediato

risponde comunque entro 1secondo. Per ritardi superiori al secondo, è opportuno che il sistema spieghi con un

messaggio le ragioni e la durata del ritardo

il limite perché non distogliamo l’attenzione dai comandi che stiamo manipolando è di circa 10secondi.

Nel caso di ritardi superiori, perderemo la pazienza e nell’attesa faremo altre cose

Tutte le azioni sugli oggetti nello schermo devono essere iniziate e controllate dall’utente, non dal

è ciò che le Guidelines chiamano il Per dare agli utenti questa

sistema: controllo da parte dell’utente.

sensazione di controllo, l’interfaccia deve, dicono le Guidelines, trovare "un equilibrio fra dare agli utenti la

possibilità di svolgere il loro lavoro e impedirgli di distruggere i dati". Se un utente si trova in una situazione in

cui rischia di distruggere involontariamente i suoi dati, è opportuno che il sistema lo avverta con un messaggio

che chiede conferma dell’azione che sta per fare (es: "eliminare xy dal cestino?"). Poi però, una volta ricevuta

conferma, il sistema deve permettere all’utente di procedere. È questa una componente importante della

che i programmi informatici devono dimostrare nei confronti degli utenti. In generale,

clemenza

un’applicazione software è se prevede che le azioni degli utenti siano il più possibile (il

clemente reversibili

tasto "Undo" = sopprimere l'effetto di una modifica o "Annulla" è l’esempio più esplicito di questa clemenza).

Quanto più un programma è clemente, tanto più incoraggerà gli utenti ad imparare come funziona senza

l’aiuto di esperti e di manuali, ma sperimentandone le funzioni per prove ed errori mentre le eseguono. A

rafforzare l’idea che sia l’utente a controllare un programma, vi è la regola sulla Una

mancanza di modalità.

un particolare stato del software che l’utente, perché lascia disponibili solo alcuni comandi

modalità è blocca

mentre tutti gli altri non lo sono, oppure mantiene costante, una volta selezionata la modalità, la funzione di

un comando se questo può avere più funzioni. Sono modalità, ad esempio, le richieste da parte del software

di scegliere certi parametri o fornire dettagli indispensabili per procedere, l’uso della matita in alternativa a

quello del pennello o cancellino in un programma di grafica, il tasto di "blocco maiuscole" nelle tastiere dei Pc.

Le Guidelines non vietano le modalità, che in alcuni casi sono utili o necessarie, ma stabiliscono che siano

ridotte al minimo e siano sempre comunicate con chiarezza all’utente. Alla manipolazione fisica letterale (il

vedi-e-punta) corrisponde quindi, metaforicamente, una manipolazione nel senso della semiotica narrativa di

Greimas, per cui ci poniamo nei confronti della macchina come se fossimo un destinante che le fa fare

qualcosa. E il nostro ruolo di destinanti è rafforzato dal fatto che, sulle barre dei comandi, nei menu, sulle

etichette che compaiono quando il mouse passa su pulsanti e icone, troviamo spesso verbi al modo

imperativo, che simulano atti linguistici rivolti alla macchina.

II.III. Feedback e dialogo. Le Guidelines stabiliscono che i programmi debbano informare il

Il sistema deve quindi

più possibile gli utenti su ciò che accade nella macchina mentre vi agiscono.

fornire sempre un’adeguata su:

retroazione o feedback 8

9

l’azione che l’utente ha compiuto: all’utente dev’essere sempre chiaro che il sistema ha ricevuto il suo

input

lo stato in cui il sistema si trova in generale

lo stato in cui il sistema si trova l’azione dell’utente e di questa, il

immediatamente dopo in conseguenza

che è un feedback anche sull’azione che l’utente ha appena compiuto

Ad esempio, il sistema deve emettere un suono e/o un segnale visivo quando riceve un input dall’utente, deve

dare informazioni su quanto tempo occorre per terminare un certo processo, deve informare se una certa

azione non è possibile perché il sistema è impegnato in qualche altro compito, deve infine dare sempre

informazioni sufficienti a far uscire l’utente dalla situazione in cui si trova. Inoltre, i messaggi di feedback

devono essere concepiti, sia nei contenuti che nel linguaggio, per chi usa la macchina, in modo da dare

l’impressione che la macchina con gli utenti (per questo si parla di "finestre di dialogo"). Di

dialoghi

conseguenza, messaggi come "errore di codice 194" sono sbagliati, perché assegnare codici agli errori non è

utile per gli utenti che, non comprendendo il messaggio, possono solo ricavarne che non sono in grado di

risolvere il problema da soli. Il feedback è una componente essenziale dell’impressione che gli utenti hanno di

con un artefatto informatico, della definizione di sistema e quindi di quella di

interagire interattivo

interfaccia.

II.IV. Coerenza, percezione di stabilità, integrità estetica. Le Guidelines sostengono che

un’interfaccia grafica dev’essere coerente sia nella rappresentazione grafica che nel suo funzionamento,

e caratterizzano la coerenza in questi termini: oltre ad essere uguali dal punto di vista visivo, gli stessi oggetti

grafici devono anche funzionare allo stesso modo, sia nello stesso programma che nel passaggio da un

programma all’altro. La coerenza visiva dell’interfaccia aiuta le persone ad imparare e riconoscere facilmente il

linguaggio grafico dell’interfaccia. La coerenza delle funzioni che gli oggetti grafici hanno nell’interfaccia fa sì

che le persone debbano imparare quali azioni della macchina seguono al clic di un’icona o un

una sola volta

pulsante, e possano quindi esplorare nuove applicazioni, o nuove funzioni di un’applicazione, facendo

affidamento sulle competenze acquisite. La coerenza, a questo duplice livello, serve a rendere l’interfaccia il

più possibile comprensibile, familiare e prevedibile, offrendo spunti di riferimento stabili e una complessiva

In termini semiotici, la coerenza di cui parlano le Guidelines riguarda sia il piano

percezione di stabilità.

dell’espressione che quello del contenuto dell’interfaccia grafica. Questa coerenza è volta a costruire un

linguaggio visivo molto semplice, formato, sul piano dell’espressione, da un numero limitato di oggetti grafici

chiari e riconoscibili dal punto di vista percettivo e, sul piano del contenuto, da un significato per

univoco

ogni oggetto grafico, significato che consiste nelle sequenze organizzate di gesti e azioni che l’utente deve fare

sull’oggetto grafico per attivare il relativo software o agire sui dati collegati. Più specificamente, il linguaggio

visivo dell’interfaccia grafica è costruito come un Per Hjelmslev sono

sistema monoplanare. monoplanari o

i sistemi di significazione in cui il piano dell’espressione è organizzato al piano del

conformi parallelamente

contenuto, ovvero con una corrispondenza uno a uno fra unità minime del piano dell’espressione e unità

minime del piano del contenuto. Alla coerenza dell’interfaccia, le Guidelines aggiungono integrità estetica,

che significa che sul piano dell’espressione gli elementi grafici devono essere anche "piacevoli da guardare". Si

ottiene integrità estetica, oltre che con la piacevolezza, anche con la che è una componente

semplicità,

importante della coerenza dell’interfaccia. Per le Guidelines, semplicità significa che il numero degli elementi

grafici e delle loro funzioni dev’essere limitato, che non si devono usare immagini grafiche arbitrarie, ma

sempre simboli standard e, se ciò non è possibile, immagini grafiche che comunicano il loro significato per

convenzione, analogia o metafora.

II.V. WYSIWYG. Nelle Guidelines del 1984 il principio WYSIWYG (acronimo per What You See

Is What You Get = significava 2 cose:

ciò che vedi è ciò che ottieni)

(1) gli utenti di un’interfaccia grafica devono poter vedere sullo schermo i comandi che un

tutti

programma mette a disposizione. Se ciò non è possibile perché i comandi sono molto numerosi, dev’essere

immediatamente chiaro dove si possono trovare altri comandi oltre a quelli che si vedono

(2) nelle applicazioni che permettono di predisporre i dati per la stampa (es: i programmi di elaborazione

testuale), non ci devono essere differenze rilevanti fra ciò che si vede a schermo quando si predispone un

documento per la stampa e ciò che si ottiene stampandolo

In seguito, il principio WYSIWYG è stato identificato solo con il secondo di questi 2 punti, ed è stato

generalizzato: ad esempio, in un programma di elaborazione grafica, quello che il progettista vede sullo

schermo corrisponde esattamente a ciò che comparirà sullo schermo di chiunque userà il prodotto grafico

seguendo le specifiche tecniche per cui è stato ottimizzato. È in quest’ultimo senso che il WYSIWYG non

funziona nella progettazione dei siti web, ed è per questo che ha potuto decretare la morte di

Jakob Nielsen

questo principio. Chi progetta una pagina web, infatti, non può mai essere sicuro che quello che vede sul

proprio schermo corrisponda a ciò che apparirà a tutti gli utenti, perché le tecnologie con cui nel mondo si

9

10

accede al Web sono diverse. Le persone infatti vedono le pagine web con schermi di grandezza diversa (dai

display piccolissimi di cellulari e palmari agli schermi dei Pc), usano versioni diverse di browser grafici

(Explorer, Netscape) o testuali (come Lynx), lavorano su piattaforme hardware diverse (Ibm, Apple, Sun, ..),

con diversi sistemi operativi e diverse velocità di connessione ad Internet. La progettazione delle pagine web

deve quindi tenere conto di tutte queste differenze.

II.VI. Conoscenza del proprio destinatario, accessibilità. Per creare un’interfaccia che le

persone possano usare occorre identificare in modo preciso i destinatari che ne

efficacemente,

Per questo, dicono le Guidelines, quando si progetta l’interfaccia di un programma è

costituiscono il target.

utile:

descrivere una giornata tipica nella vita delle persone che si suppone useranno quel programma,

immaginando il loro ambiente di lavoro quotidiano, gli strumenti che hanno a disposizione, i limiti fisici con

cui hanno a che fare

quando possibile, visitare i luoghi di lavoro per integrare l’analisi con uno studio empirico su cosa fanno

davvero le persone quando lavorano

durante la progettazione di un prodotto, coinvolgere i futuri utenti, ascoltare i loro commenti e far loro

testare il prototipo del prodotto nelle diverse fasi della sua progettazione

"Sviluppa il tuo prodotto pensando alle persone e alle loro capacità, non ai computer e alle loro capacità",

concludono le Guidelines, introducendo quello che diverrà uno slogan negli studi sull’interazione persona-

macchina orientata all’utente e all’usabilità dell’interfaccia

(Human Computer Interaction) (user-centered).

Inoltre, una progettazione orientata all’utente non deve mai dimenticare che fra i destinatari di un prodotto

informatico ci possono essere persone che si discostano dalla media del target perché hanno limiti o disabilità

di diverso tipo e gravità. Pensare agli utenti disabili significa progettare

sensoriali, motorie o cognitive

l’accessibilità dell’interfaccia di un programma informatico, il che comporta adottare numerosi accorgimenti,

che oggi sono standard nelle interfacce grafiche del software commerciale più diffuso, ma purtroppo non lo

sono ancora sul Web. Ad esempio:

poiché molte persone hanno difficoltà a distinguere certi colori, non si può basare la

solo sul colore

comunicazione a schermo di informazioni di sistema, funzioni e comandi, ma l’uso del colore dev’essere

sempre accompagnato da altri codici visivi (es: la forma e la posizione reciproca degli elementi grafici), da

codici sonori e verbali

poiché fra gli utenti ci possono essere persone con diversi gradi di disabilità acustiche, non si può basare

la comunicazione di informazioni di sistema, funzioni e comandi, ma occorre sempre affiancare

solo su suoni

codici visivi

poiché alcune persone possono soffrire di disabilità motorie che impediscono loro di usare le interfacce

fisiche del computer, occorre progettare il sistema in modo che la tastiera possa assolvere, se necessario, a

tutte le funzioni del mouse, che si possa rallentare la velocità con cui il computer risponde ai tasti, che l’utente

non debba necessariamente schiacciare assieme più tasti per ottenere una funzione, ..

In termini semiotici, le Guidelines stabiliscono di fare ipotesti accurate su quello che, riprendendo la nozione di

lettore modello di possiamo chiamare l’utente di un’interfaccia grafica. L’utente modello di

Eco, modello

un’interfaccia non è l’utente empirico, non è cioè chi nella realtà empirica usa davvero l’interfaccia di un

programma per fare cose, ma è l’insieme che l’autore empirico

di previsioni sugli utenti empirici

dell’interfaccia (il progettista o il gruppo di progettazione) fa quando progetta l’interfaccia. La differenza fra la

nozione di lettore e quella di utente modello sta nel fatto che, mentre nel caso del lettore modello queste

previsioni riguardano dei lettori empirici (competenze, inferenze, atti di comprensione

azioni e stati mentali

o fraintendimento), nel caso dell’utente modello di un’interfaccia riguardano anche azioni e stati materiali

del corpo degli utenti empirici: dai movimenti degli occhi e delle mani coordinati in "programmi gestuali" alle

sequenze di azioni orientate a scopi della vita quotidiana. Le Guidelines invitano i progettisti a fare ipotesi il

più possibile raffinate e precise, basate anche su tecniche di indagine empirica, sulle competenze, mosse

delle persone che useranno l’interfaccia di un programma: cose ne

interpretative e azioni concrete

faranno, a quali altri strumenti affiancheranno l’uso del programma, in quali contesti e in che modo lo

inseriranno nella loro vita quotidiana e professionale. Il lavoro che i progettisti devono fare per prevedere

l’utente modello dovrebbe somigliare il più possibile a quello che fanno i pubblicitari quando studiano il

target di un prodotto. L’attenzione delle Guidelines riguarda la previsione, nella progettazione dell’interfaccia,

di (incluse eventuali disabilità)

caratteristiche percettive, cognitive e motorie di utenti il più possibile

poiché in linea di principio l’interfaccia grafica di un sistema operativo e quella di un programma

generici:

dovrebbero andar bene a tutti, le Guidelines non prendono in considerazione differenze culturali, sociali, di

professione, genere, età, interessi (per questo si parla di Inoltre, poiché la Guidelines

interfacce generiche).

sono state scritte in un momento in cui le regole dell’interfaccia grafica non erano ancora stabilizzate, la loro

intenzione era quella di spingere i progettisti verso le definizione di regole standard. Questo sforzo è analogo

10

11

a quello che i sostenitori della web usability stanno facendo oggi per le interfacce dei siti web, dove gli

standard sono ancora incerti. Tuttavia, a differenza di ciò che si fa nel progettare interfacce utente il più

possibile generiche, nel progettare l’usabilità si dovrebbe applicare un’attenzione

di siti web differenziata

(sociali, culturali, professionali, ..), che si fanno nel sito web,

per tipi di utente tipi di azioni tipi di

in cui quelle azioni si inseriscono. L’utente modello di un’interfaccia è l’utente-tipo che l’interfaccia

situazioni

non solo facendo ipotesi sulle sue competenze e azioni, ma cerca anche di costruendo

prevede, creare,

nuove competenze e orientando le azioni che gli utenti vorranno o dovranno compiere con l’interfaccia.

III. Comunicare e interagire con la macchina.

Nella nozione informatica di interfaccia utente è sempre implicita, e spesso esplicita, l’idea che gli utenti

Il concetto informatico di comunicazione trae origine dal celebre modello

comunichino con la macchina.

matematico della comunicazione di Essi volevano:

Shannon e Weaver.

descrivere dal punto di vista fisico-matematico gli apparati meccanici per la trasmissione a distanza

dell’informazione

studiare come dovessero essere fatti i segnali per rendere il più possibile efficiente la comunicazione,

riducendo i danni provocati dal rumore, cioè dalle interferenze sul canale di trasmissione

Nel modello di Shannon e Weaver, la comunicazione è un da una fonte, o

passaggio di informazione

emittente, ad un ricevente, o destinatario: l’emittente produce un che, in un

messaggio codificato segnale,

viaggia lungo un fisico (su cui può essere disturbato da qualche interferenza o fino a

canale rumore)

raggiungere un apparato ricevente che, dotato di un dispositivo di lo rende disponibile e

decodifica,

comprensibile per qualche destinatario:

messaggio segnale segnale ricevuto messaggio ricevuto

emittente (macchina) codificatore canale decodificatore destinatario (utente)

rumore

Shannon e Weaver formularono anche una misurazione in bit dell’informazione contenuta in un

Questa misurazione conta le scelte binarie che sono necessarie per individuare un messaggio fra

messaggio.

più alternative possibili: se le alternative possibili sono 2, per definire quale si dà di esse è necessaria 1scelta,

dunque il messaggio vale 1bit, se le alternative sono 4, si devono fare 2scelte e il messaggio vale 2bit, se sono

8 il messaggio vale 3bit, e così via con le potenze di 2. Il modello della comunicazione come trasmissione di

informazione misurata in bit è stato criticato ripetutamente dalla semiotica perché inadeguato a rendere conto

della comunicazione fra esseri umani, per svariate ragioni. In sintesi, i che sono stati individuati in

limiti

questo modello, applicato alla comunicazione umana, sono questi:

(1) il modello rappresenta la comunicazione umana come trasferimento di un contenuto fisso e

(come fosse un oggetto) fra i 2 poli, altrettanto fissi e predeterminati, dell’emittente e del

predeterminato

destinatario: non c’è nessuna riflessione né sul messaggio (sulla molteplicità dei suoi significati e valori, sulle

trasformazioni che subisce e crea nella comunicazione), né sulla soggettività insita nei poli di emissione e

ricezione

(2) la codifica e decodifica sono considerate operazioni inverse non problematiche, perché si suppone che

emittente e ricevente l’identità e univocità del codice sono date per scontate,

condividano lo stesso codice:

il che non accade quasi mai nelle comunicazioni reali, in cui le persone si basano spesso su codici, conoscenze,

aspettative reciproche molto diverse

(3) il modello è statico e della comunicazione, per cui emittente e

non tiene conto degli aspetti dinamici

destinatario negoziano e rinegoziano di continuo ruoli, punti di vista, significati, valori, e le stesse regole dello

scambio comunicativo

(4) il modello rappresenta e trascura la vasta gamma di azioni che si possono fare

solo il fare informativo

quando si comunica sulla base di regole convenzionali, ma anche di scelte individuali e contestuali:

comandare, richiedere, convincere, promettere, ..

(5) il modello dimentica che una parte molto rilevante (spesso la più rilevante) della comunicazione umana

riguarda (presupposizioni, implicazioni, implicature conversazionali, allusioni, insinuazioni), che non

impliciti

possono essere misurati in bit perché non sono trasmessi esplicitamente dal messaggio, e hanno margini a

volte molto ampi di vaghezza e indeterminatezza

Anche se gran parte delle critiche al modello di Shannon e Weaver applicato alla comunicazione umana sono

ormai scontate in semiotica, esso riguadagna importanza se si considera la comunicazione fra persone

perché la trasmissione di informazioni è cruciale in informatica e nelle telecomunicazioni.

e computer,

Quando si comunica con una macchina, infatti, tutto ciò che si fa dev’essere tradotto in bit, cioè in sequenze

di 0 e 1, altrimenti la macchina non lo comprende: il cioè l’insieme organizzato di sequenze

codice binario,

di 0 e 1, è il modo più diretto di descrivere in termini che non siano fisico-elettronici cosa succede

11

12

materialmente nei circuiti elettronici della macchina. Nei termini del modello di Shannon e Weaver,

la somma del canale fisico-elettronico (l’hardware) e dei diversi codificatori e

dunque, l’interfaccia utente è

decodificatori costituiti, a strati, dal software di livello alto delle interfacce grafiche, scendendo

progressivamente verso il software di livello basso che traduce tutto nelle sequenze di bit del linguaggio

macchina: è questa somma che in un sistema di calcolo permette il trasferimento di informazioni dall’utente al

sistema e viceversa. Il fatto che ci sia un introduce un altro concetto importante quando si parla di

viceversa,

interfacce: quello di Di solito l’interazione fra l’utente e la macchina è pensata semplicemente

interazione.

come uno di ruoli fra emittente e destinatario, il che amplia il modello della comunicazione come

scambio

trasmissione di informazioni, ma non ne cambia la sostanza perché si limita a renderlo bidirezionale,

reversibile sullo stesso canale:

messaggio ricevuto segnale ricevuto segnale messaggio

destinatario (macchina) decodificatore canale decodificatore emittente (utente)

rumore

Lo schema bidirezionale del trasferimento di informazioni fonda, oltre all’idea di interazione fra macchina e

utenti, anche il concetto informatico di interattività. Il termine nasce in informatica negli anni 60

interattività

per distinguere il (= elaborazione di dati che un sistema di calcolo compie

real time processing in tempo reale,

cioè il programmatore inserisce i dati) dal (= elaborazione da parte del sistema di

mentre batch processing

dati che sono già nel codice e possono essere cambiati dal programmatore solo intervenendo nel codice

stesso. Negli anni 60 erano dunque interattivi i programmi a cui il programmatore forniva i dati mentre il

programma girava, e non erano interattivi i programmi che avevano i dati nel codice e che il programmatore

non poteva modificare senza cambiare il codice stesso. l’interattività sottolineava, nello

Mentre allora

scambio di informazioni fra sistema e utente, il ruolo dell’utente, perché la novità stava da quella parte, oggi

che il real time processing è scontato, quando si parla di interattività si pensa piuttosto al fatto che è il sistema

a reagire, a rispondere in tempo reale, cioè immediatamente, agli input dell’utente. L’attenzione per l’uno o

l’altro polo dello scambio informativo varia a seconda di cosa è scontato o cosa non lo è nel contesto in cui si

parla di interattività. Poiché normalmente gli oggetti non compiono azioni ma le subiscono, a differenza dei

soggetti che invece agiscono, la prima cosa che ci viene in mente quando pensiamo ad un oggetto

è che l’oggetto sia capace di di con azioni conseguenti (come fosse un

interattivo rispondere, reagire

soggetto) agli input di un essere umano. Solo in un secondo momento ci viene in mente che, per avere

interazione, cioè azione reciproca fra 2 soggetti, alla reazione del sistema debba seguire un’azione ulteriore

dell’utente. Se invece parliamo di pensiamo subito alla possibilità che siano gli spettatori a

TV interattiva,

svolgere un ruolo in qualche modo attivo, intervenendo nei programmi, scegliendoli da un insieme di offerte,

.. L’attenzione sta dalla parte dell’utente perché normalmente la televisione è un mezzo di comunicazione

monodirezionale. Analogamente, quando si parla di (guide interattive, corsi

testi e ipertesti interattivi

interattivi, narrativa interattiva), ci si riferisce alla possibilità che i lettori intervengano attivamente e

materialmente sul piano dell’espressione dei testi, facendo clic sui link, aggiungendo testi propri, proponendo

esiti alternativi di una storia, rispondendo a domande, .. Normalmente infatti, nei testi tradizionali su carta, i

lettori intervengono solo sul piano del contenuto.

IV. L’interattività come dialogo.

Nel concetto di interattività vi è anche l’idea che lo scambio di informazioni bidirezionale fra macchina e

utente sia per certi aspetti simile a ciò che accade quando le persone si parlano, dialogano fra loro. È implicito

un concetto di in qualche modo (= che funge da modello, da esempio),

dialogo paradigmatico prototipico

(= prototipo come insieme sfumato di proprietà o tratti distintivi): quello della comunicazione faccia a faccia

fra 2 persone (un parlante e un ascoltatore) che usano il canale fonico-acustico di qualche lingua per parlarsi. Il

dialogo prototipico è caratterizzato da questi 5 insiemi di caratteristiche essenziali:

(1) sono coinvolte un parlante e un ascoltatore. Essi hanno in comune la lingua in cui parlano e

2 persone,

un insieme di conoscenze e credenze cioè condivise ampiamente dalla media delle persone che

generali,

vivono nella loro cultura e nel loro tempo (porzioni dell’enciclopedia di Eco), conoscenze e credenze

cioè condivise dal gruppo sociale, etnico, familiare cui appartengono, conoscenze e credenze

particolari, cioè condivise solo da loro 2. Sulla base di queste conoscenze e credenze condivise, parlante

idiosincratiche,

e ascoltatore si attribuiscono reciprocamente e implicitamente stati cognitivi e passionali (intenzioni, giudizi,

emozioni, desideri, ..). Inoltre, presuppongono di aver accesso reciproco solo ad di questo

una piccola parte

insieme ampio e variegato di stati interiori, la maggior parte dei quali resta inaccessibile quando dialogano, e

può sempre riservare sorprese. In altre parole, parlante e ascoltatore presuppongono reciprocamente di essere

"scatole nere" accessibili e prevedibili dall’esterno in misure diverse, ma sempre

sistemi complessi e opachi,

solo in parte 12

13

(2) parlante e ascoltatore in cui si trovano quando dialogano

condividono lo spazio

(3) parlante e ascoltatore in cui dialogano: si tratta di

condividono il tempo comunicazione sincrona.

Per questo parlante e ascoltatore possono inviarsi messaggi (su più canali) anche contemporaneamente,

sovrapponendoli l’uno all’altro. Di qui le interruzioni e sovrapposizioni di voce frequenti nel dialogo faccia a

faccia

(4) la condivisione dello spazio-tempo comporta che parlante e ascoltatore abbiano entrambi accesso

al corpo e al contesto dell’altro. Questo accesso percettivo può essere analizzato secondo i diversi

percettivo

canali sensoriali coinvolti. Mentre il canale è condiviso necessariamente in tutte le

fonico-acustico

comunicazioni orali, gli altri canali hanno rilevanze diverse a seconda della relazione fra parlante e ascoltatore

e del contesto: di solito il canale gioca il ruolo preponderante, ma nelle relazioni interpersonali

visivo

ravvicinate o intime possono svolgere un ruolo importante anche i canali tattile e olfattivo

(5) la relazione fra parlante e ascoltatore è cioè sia il parlante che l’ascoltatore pensano di avere

paritaria,

Questa caratteristica ne comporta altre 2:

pari diritto di parola.

a. c’è un alto grado di fra il ruolo del parlante e quello dell’ascoltatore, e questo

interscambiabilità

produce l’alternanza di "botta e risposta" a coppie adiacenti (= immediatamente conseguenti nel

tempo), che sono tipiche della conversazione faccia a faccia e seguono regole, con relative eccezioni

(interruzioni, sovrapposizioni, ..), che in parte dipendono dal contesto e in parte sono generali

b. ciascun soggetto la propria comunicazione alle azioni e reazioni dell’altro,

adatta continuamente

e in ogni momento ha la possibilità di che presiedono alla scambio comunicativo

rinegoziare le regole

Questi insiemi di proprietà non esauriscono, presi assieme, la descrizione di cosa succede quando 2 persone

comunicano faccia a faccia, ma sono essenziali al dialogo prototipico in un senso sfumato di essenzialità: se

manca qualcuna di queste caratteristiche, il dialogo è percepito, in modi e gradi diversi, come anomalo o

comunque meno tipico, meno vero, meno "dialogo in senso letterale". Se la comunicazione non è fra 2

persone (ce n’è solo una o ce ne sono più di 2) non si parla propriamente di dialogo (il "dialogare con sé

stessi" è un senso non letterale del dialogo). D’altra parte, non si dice neppure, di chi parla in pubblico, che sta

"dialogando" con il suo uditorio. Se manca la condivisione dello spazio, abbiamo le comunicazioni a

o telecomunicazioni, che possono essere Le comunicazioni a distanza orali

distanza, sia orali che scritte.

usano il telefono e, più recentemente, i sistemi di trasmissione vocale su Internet. Poiché in questi casi le

persone non condividono lo spazio ma mantengono la sincronia e condividono il canale acustico, queste

comunicazioni sono abbastanza simili alla situazione prototipica del faccia a faccia da sembrarci dialoghi a tutti

gli effetti. Mancano invece della condivisione sia spaziale che temporale le comunicazioni a distanza mediate

dalla scrittura: tutte le comunicazioni scritte si caratterizzano per uno scarto temporale più o meno ampio fra

il momento della produzione e quello della ricezione del messaggio. Rientrano in questa categoria le

comunicazioni con la posta tradizionale, quelle con l’e-mail, i newsgroup, i forum, le mailing list su Internet,

quelle con la tecnologia Sms sul cellulare.

[newsgroup (= gruppi di discussione): bacheche pubbliche, ciascuna dedicata ad un argomento specifico; si

può spedire un messaggio al newsgroup di argomento attinente, dove tutti possono leggerlo e rispondere -

forum: spazio on-line in cui si ritrovano gruppi di persone con interessi simili, per fare domande e partecipare

attivamente alle discussioni che ne nascono - metodo di comunicazione in cui un messaggio e-

mailing list:

mail inviato ad un sistema viene inoltrato automaticamente ad una lista di destinatari interessati ad un dato

argomento]

Le comunicazioni a distanza scritte sembrano tanto più dialogiche quanto più sono e imitano

rapide e brevi,

per iscritto il "botta e risposta" del parlato. Per quanto riguarda infine la necessità che il dialogo sia paritetico,

basta pensare che non chiamiamo "dialoghi" comunicazioni orali asimmetriche per ruoli e competenze come

lezioni, conferenze, discorsi pubblici, e neanche conversazioni a 2 in cui il parlante domina nettamente

l’interlocutore che, per svariati motivi, interviene poco o nulla: diciamo che sono monologhi o, appunto,

mancano di interattività. Il dialogo prototipico è un modello implicito non solo quando si pensa alla

comunicazione fra persone (mediata o meno da tecnologie), ma anche quando si pensa all’interazione fra

o, per dirla con un’etichetta che oggi designa un intero campo disciplinare, alla

persone e computer Human

(Hci). Le caratteristiche del dialogo prototipico ci possono aiutare a definire il concetto

Computer Interaction

informatico di interattività e a comprendere su quale base diciamo che oggetti e sistemi sono interattivi

oppure no. Un sistema è interattivo se stabilisce con il suo utente una relazione simile a quella del

L’interattività non è un concetto assoluto, ma una questione di gradi. Questo

dialogo prototipico.

corrisponde alle nostre intuizioni ordinarie sull’interattività (es: un computer è sicuramente interattivo, un

videoregistratore lo è meno, un cacciavite non lo è affatto). Un sistema è interattivo al massimo grado se

possiede 5 insiemi di caratteristiche che ricordano quelli del dialogo prototipico, se cioè si danno queste

condizioni:

(1) sono coinvolti il sistema e l’utente. L’utente presuppone di avere a che fare con un sistema

2 soggetti:

di stati e processi interni, una scatola nera che può essere più o meno accessibile e

più o meno complesso 13

14

controllabile dall’esterno, ma non è mai del tutto trasparente. Quanto più alto è il grado di complessità che

l’utente presuppone nel sistema, tanto più il sistema è interattivo, perché ricorda la complessità umana

(2) l’utente e il sistema quello dell’interfaccia

condividono uno spazio,

(3) l’utente e il sistema il che comporta che possano interrompersi l’un l’altro

interagiscono in sincronia,

e che il loro tempo sia scandito da azioni e reazioni reciproche. Il sistema agisce e reagisce sempre in modo

rispetto alle azioni e reazioni dell’utente e emette un segnale di feedback o

pertinente in ogni caso

retroazione, che informa l’utente sullo stato del sistema, su quale azione ha compiuto e con quali conseguenze

sul sistema. Il sistema reagisce così rapidamente da simulare l’immediatezza del dialogo prototipico fra esseri

umani. Se il tempo di reazione non è immediato, è comunque a quello che l’utente si aspetta,

adeguato

oppure il sistema dà un segnale di feedback che spiega perché gli occorre un tempo superiore alle aspettative,

o perché non può rispondere

(4) nell’interazione persona-macchina l’interfaccia hardware e software della

l’utente percepisce

sui canali sensoriali che essa prevede: visivo (sullo schermo), uditivo (quando il sistema o i

macchina

programmi emettono suoni o, più sistematicamente, nelle interfacce vocali),

[interfacce vocali = per non vedenti che trasformano tutto ciò che le interfacce grafiche

tecnologie adattive

fanno apparire nello schermo in stimoli uditivi, grazie ai cosiddetti sintetizzatori vocali o lettori dello schermo]

tattile (sul mouse, la tastiera o lo schermo nei sistemi touch screen). Anche per così

la macchina percepisce,

dire, attraverso i suoi "punti di intervento", che sono, da un lato, i dispositivi software che ricevono

l’utente

input dalla tastiera, dall’altro, i luoghi dello schermo in cui il puntatore è attivo: pulsanti, icone, righe di

menu, link, punti per inserire caratteri alfanumerici

(5) la relazione fra sistema e utente ma presenta gradi diversi di

non è mai paritaria, asimmetria a

a seconda del sistema e della sua interfaccia. Più la relazione fra sistema e utente è

favore dell’utente

paritaria, più il sistema è interattivo

La presenza congiunta di questi 5 insiemi di proprietà definisce un grado molto alto di interattività, quella dei

sistemi informatici; ma anche nei sistemi informatici si possono tuttavia distinguere gradi diversi di interattività.

Tutti gli esperimenti di simulano al massimo grado la pariteticità del dialogo fra

intelligenza artificiale

persone: l’intelligenza artificiale cerca infatti di costruire sistemi che non si limitano a rispondere all’utente, ma

prendono iniziative, lo sorprendono con risposte inattese ma adeguate, risolvono i suoi problemi, fanno cose

al posto suo in modi nuovi e migliori di come l’utente potrebbe fare. Seppure in minor grado, anche gli

si pongono in relazione complessa e paritaria con l’utente, perché rilevano i suoi

agenti intelligenti

comportamenti e ne ricavano un profilo personale che serve loro per proporre percorsi, azioni, oggetti

presumibilmente adatti alle esigenze dell’utente. Ad esempio, l’agente intelligente che sta dietro un sito come

Amazon.com prende l’iniziativa di proporre agli utenti registrati liste di libri che presumibilmente

corrispondono ai loro interessi, individuati sulla base delle consultazioni precedenti del sito e di eventuali

acquisti già fatti on-line dall’utente. L’interazione fra utente e sistema è molto sbilanciata a favore

l’utente ordina e il sistema obbedisce e non ci sono dialoghi alla pari, ma interazioni che

dell’utente:

ricordano piuttosto la comunicazione fra un ed un molto passivo. Inoltre, è l’utente a

padrone servo

decidere i tempi di interazione con il sistema, con questa scansione:

(1) l’utente agisce per primo, avviando l’interazione

(2) il sistema reagisce in modo consequenziale e pertinente

(3) l’utente ri-reagisce alla reazione del sistema

(4) il botta e risposta fra utente e sistema avviene volte

n

(5) l’utente chiude la relazione con il sistema

Tuttavia, ritmi e durate dell’interazione sono controllati dall’utente solo in parte, perché dipendono, oltre che

dal tempo che questi impiega a fare le sue richieste e dalla complessità dei suoi obiettivi, anche dai tempi di

reazione del sistema, cioè dal tipo e numero di processi che sono necessari alla scatola nera per realizzare

quegli obiettivi. I limiti del controllo da parte dell’utente sono evidenti nel caso di malfunzionamenti: quando

il sistema interrompe le azioni dell’utente perché va in tilt, non risponde o risponde in modo non pertinente,

e quando l’utente non comprende o tarda a comprendere come agire sull’interfaccia per ottenere ciò che

vuole, il dialogo sembra tornare o addirittura L’interattività

alla pari, sbilanciato a favore della macchina.

che attribuiamo agli oggetti diminuisce progressivamente man mano che vengono meno le somiglianze con il

dialogo. Una lavatrice ci sembra più o meno interattiva, a seconda di quante e quanto complesse sono le sue

funzioni: un modello base non elettronico sembra poco interattivo, mentre non abbiamo dubbi

sull’interattività delle lavatrici elettroniche di ultima generazione. Perché?? Una lavatrice elettronica con molte

funzioni ci sembra un sistema complesso, una scatola nera che dall’esterno riusciamo a controllare poco, e in

questo senso ci ricorda un soggetto umano (punto 1). Con la lavatrice interagiamo nello spazio dell’interfaccia

(punto 2), sui canali sensoriali che prevede (punto 4). Con la lavatrice siamo in sincronia (punto 3), con un

ritmo di azioni e reazioni reciproche che somiglia a quello che abbiamo con un Pc (punto 5). Possiamo

svolgere analisi analoghe dell’interattività di moltissimi altri oggetti: poiché il funzionamento di un numero

14

15

sempre maggiore di oggetti d’uso quotidiano è gestito da microprocessori e software, un numero sempre

maggiore di oggetti simulano l’interattività dialogica dei sistemi informatici. Oggi è sempre più difficile trovare

esempi di interattività non gestiti da un processore elettronico. Tuttavia, qualunque macchina automatica non

elettronica (es: una lavatrice elementare) è una macchina interattiva, con gradi di interattività certo inferiori a

quelli degli oggetti informatizzati, ma comunque analizzabili con il nostro schema.

V. Quali oggetti hanno un’interfaccia e quali no.

Oggi il concetto informatico di interfaccia è applicato, fuori dall’informatica, anche ad oggetti di uso comune.

Questo fenomeno è connesso in parte all’informatizzazione della società contemporanea. Si assiste tuttavia ad

un’estensione eccessiva del concetto di interfaccia, un’estensione inadeguata per l’analisi semiotica. In questa

prospettiva, sarebbero dotati di interfaccia utente non solo i sistemi informatici e gli oggetti informatizzati, ma

Gli oggetti d’uso sono artefatti che per permettere alle persone

tutti gli oggetti d’uso. sono stati progettati

di compiere certe azioni e perseguire certi scopi, o nel senso che sono loro per portare a termine le

necessari

azioni e raggiungere gli scopi, o nel senso che assolvono ad una funzione di Si

aiuto o facilitazione.

distinguono dagli oggetti da contemplare, che sono "oggetti estetici, opere d’arte, gadget, soprammobili,

oggetti da collezione, oggetti da museo". In realtà la definizione di oggetto d’uso è più ampia ed è relativa alla

pertinenza di una È chiaro infatti che possono svolgere una funzione di strumento necessario o

funzione.

aiutante anche oggetti che non sono stati progettati a questo scopo (posso piantare un chiodo con il tacco di

una scarpa), oppure non sono artefatti ma oggetti naturali (posso piantare un chiodo con un sasso). Si

potrebbe a questo punto osservare che non vi è mai un oggetto che sia inutile. Tuttavia, nel caso di artefatti

non progettati per una certa funzione o di oggetti naturali, non si pone il problema di decidere se l’oggetto

abbia un’interfaccia utente o meno. Applicando, invece, la nozione di interfaccia a tutti gli artefatti

la semiotica riprende alcune ricerche sul design industriale tese a conciliare

progettati per un certo uso,

l’opposizione fra estetica e funzione, svincolando il design dalla sua concezione puramente estetica.

L’interfaccia non è un oggetto, ma uno spazio in cui si articola l’interazione fra corpo umano,

(artefatto, intesto sia come artefatto oggettuale sia come artefatto comunicativo)

utensile e scopo

L’interfaccia rende accessibile il carattere strumentale degli oggetti e il contenuto comunicativo

dell’azione.

delle informazioni. Questa definizione però non precisa affatto cos’è l’interazione con l’oggetto. È evidente

che un ampliamento eccessivo del concetto di interfaccia e di quello correlato di interazione (è interazione

qualunque contatto fra esseri umani e oggetti che facilita o permette di eseguire qualche azione es: forbici,

coltello, palla, ..) portano a inutili forzature. Per questo è preferibile mantenere la definizione di interfaccia

legata al concetto di interattività come simulazione del dialogo prototipico: hanno un’interfaccia utente solo

presentano almeno un grado minimo di interattività dialogica, lo

gli oggetti che e l’interfaccia utente è

spazio in cui si esercita questa interattività.

VI. Gli spazi delle interfacce grafiche.

L’interfaccia utente di un sistema operativo o di un programma è quindi lo spazio materiale e percepibile

che il sistema e l’utente condividono per interagire. Possiamo chiamare questo spazio, lo spazio di azione

dell’interfaccia. Le azioni dell’utente sull’interfaccia sono ciò che Greimas chiama cioè

"programmi gestuali",

sequenze coordinate di movimenti del corpo (in questo caso degli occhi e delle mani), che sono orientate a

scopi e seguono una certa organizzazione. Nel caso dell’interfaccia grafica, scopi e organizzazione dei

programmi gestuali dipendono da ciò che bisogna fare su ciascun elemento dell’interfaccia (icona, pulsante,

espressione linguistica, riga di menu) per far funzionare il rispettivo comando e dalla sequenza in cui si devono

digitare più comandi per raggiungere un certo scopo. Una volta realizzati i programmi gestuali di un comando

(o di una sequenza di comandi), possiamo realizzare gli ulteriori programmi di azione che il software rende

possibili, che non riguardano solo gesti delle mani e movimenti degli occhi, ma sono più complessi e si

intrecciano con attività e scopi della nostra vita quotidiana e professionale (scrivere una lettera, stamparla,

elaborare una fotografia digitale, gestire un archivio, ..). L’interazione materiale fra utente e sistema nello

spazio dell’interfaccia avviene fra il puntatore che appare a schermo e il su cui il

"punto di intervento"

puntatore agisce (pulsante, icona, opzione di menu, posizione per inserire un testo alfanumerico, ..). È chiaro

che il puntatore e i punti di intervento sono rispettivamente, dell’utente e del sistema, sono cioè

simulacri,

che simulano testo costituito dall’interfaccia la presenza dei soggetti empirici che stanno fuori dal

tracce nel

testo. Tuttavia, nello spazio dell’interfaccia questi simulacri sono essi stessi entità empiriche che interagiscono

materialmente: l’embrayage creato dall’interfaccia, cioè il suo aggancio con i soggetti empirici esterni al testo

(sistema e utente) è molto forte. Il puntatore agisce, cioè seleziona il punto di intervento e, così facendo, lo fa

passare dallo stato di (espresso dalla combinazione di nero su grigio nei colori standard di

comando virtuale

Windows) a quello di (segnalato dall’inversione di colore) se il comando permette questa

comando attuale

fase intermedia, oppure lo fa passare direttamente, se il comando non prevede la fase di attualizzazione, allo

stato di che avvia l’azione prevista (come quando si schiacciano i pulsanti o si inseriscono

comando realizzato 15

16

caratteri alfanumerici). Subito dopo, il sistema reagisce, eseguendo l’azione prevista dal comando o dando

comunque un segnale di feedback (un suono o un messaggio di errore se l’utente ha sbagliato qualcosa, un

avviso di impossibilità o ritardo a procedere, ..). Quindi il puntatore seleziona un altro punto di intervento,

questo reagisce, e così via. È proprio il fatto che, da un lato, l’utente agisca materialmente sull’interfaccia e

che, dall’altro, il sistema reagisca, che costituisce l’interfaccia come spazio: il fatto che un’azione compiuta per

via gestuale produca realizza un’integrazione importante dei campi percettivi che produce a

effetti visibili

sua volta un sul suo soggetto. Di qui la forte sensazione di "immersione" nello spazio di

effetto di realtà

azione dell’interfaccia che tutti sperimentiamo usando un comune Pc e che le interfacce tridimensionali

enfatizzano al massimo, mettendo personaggi con sembianze umane al posto del puntatore e inserendo i

punti di intervento in rappresentazioni tridimensionali molto realistiche. Per questo si è proposta la metafora

per descrivere l’interfaccia come luogo di interazione fra persone e computer, sottolineando come

del teatro

l’interazione avvenga in un ambiente unico che coinvolge attori (il sistema) e spettatori (gli utenti). Per questo

altri preferiscono chiamare lo spazio di azione dell’interfaccia. Forse potremmo chiamare questo

ambiente

livello di spazialità immersiva più che soltanto spazio di azione, proprio per

spazio di percezione-azione,

ricordare anche nel nome la complessa integrazione percettivo-gestuale di cui è fatto. Nello spazio di azione

possiamo distinguere lo (= solo lo spazio di percezione-azione), che nello schermo

spazio esplicito si vede

nel momento in cui vi agiamo, da quello (= uno spazio di azione possibile), che

implicito non si vede

quando guardiamo lo schermo, ma può diventare visibile se facciamo certe azioni nello spazio esplicito. Nelle

interfacce dei word processor e dei siti web, il modo più comune per aver accesso allo spazio implicito (e

dunque cambiare spazio esplicito) è fare con la barra di scorrimento. Una parte dello spazio di

scrolling

percezione-azione esplicito è destinata ai contenuti che il programma permette di visualizzare ed elaborare

(parole e frasi in qualche lingua, righe di codice in qualche linguaggio di programmazione, immagini, video,

animazioni): questo è lo In Microsoft Word, Excel, Powerpoint, ad esempio, lo spazio

spazio dei contenuti.

dei contenuti è la superficie bianca che simula una pagina di carta su cui scrivere, mentre sul Web è la parte di

pagina web che esclude gli strumenti di navigazione. È chiaro che lo spazio dei contenuti dello spazio

fa parte

di percezione-azione perché vi possiamo agire, scrivendo testi e programmi, elaborando immagini, seguendo i

link associativi delle pagine web (le parole sottolineate), .. : i contenuti digitali presentati sullo schermo da

qualunque interfaccia grafica sono detti proprio perché gli utenti vi possono agire materialmente.

interattivi

Ma lo spazio di azione (esplicito e implicito) non è l’unico livello di spazialità delle interfacce grafiche, anche

se è sicuramente il più importante. Nell’interfaccia grafica di Windows e Mac lo spazio di percezione-azione è

delimitato come minimo da 2 cornici: quella della finestra del programma aperto e quella del bordo di

plastica del monitor. Se teniamo aperti più programmi e manteniamo visibile la barra delle applicazioni di

Windows, le cornici sono di più, le une dentro le altre; queste cornici danno l’impressione che lo spazio di

percezione-azione dell’interfaccia di ciascun programma stia una superficie trasparente bidimensionale:

dietro

possiamo chiamare questo livello di spazialità perché sta fra noi e lo spazio di azione.

interspazio,

3. USABILITÀ.

I. Che cos’è l’usabilità.

Il concetto di usabilità, nel suo senso più ampio, nasce dagli studi di ergonomia. L’ergonomia è una

classica

disciplina che, all’incrocio fra medicina, fisica e ingegneria, studia gli aspetti fisiomotori della relazione fra il

corpo umano e gli artefatti. L’ergonomia studia invece gli aspetti dell’interazione con gli

cognitiva psicologici

artefatti, legati alle dinamiche di percezione, apprendimento, memoria, risoluzione dei problemi. È una

disciplina più recente, che si è sviluppata rapidamente dopo la diffusione degli elaboratori elettronici e dei

sistemi di calcolo interattivi, tanto che oggi la sua branca più importante ed estesa è la Human Computer

(Hci), cioè lo studio dell’interazione persona-computer. Anche se la Human Computer

Interaction

Interaction è solo un settore dell’ergonomia cognitiva, la crescente informatizzazione della società le ha

conferito un ruolo sempre più rilevante. Oggi le ricerche sull’interazione persona-macchina costituiscono un

campo di studi molto vasto, che si nutre dell’apporto di numerose discipline. È a partire dagli anni 80,

di masse crescenti di persone, che la nozione di usabilità

quando i Pc entrarono nella vita quotidiana

iniziò ad essere riferita ai in particolare e il tema dell’usabilità cominciò ad

prodotti informatici, software,

essere uno dei più discussi della Hci. Fu con la diffusione dei Pc che i prodotti informatici entrarono nei luoghi

di lavoro e nelle case della gente comune, di persone cioè che non li volevano usare per progettare e scrivere

software, ma per essere aiutate nella professione e nella vita quotidiana, e dunque pretendevano prodotti

facili e piacevoli, che non costringessero tutti a diventare esperti di informatica. Da allora, quando si parla di

usabilità, si pensa soprattutto ai prodotti informatici e, più precisamente, all’usabilità della loro interfaccia

Inoltre, si parla dell’usabilità delle interfacce di telefonini, palmari, videoregistratori, lavatrici, ..

utente.

perché il funzionamento di questi oggetti è gestito da programmi informatici. Anche se non tutti gli oggetti

d’uso possiedono un’interfaccia, tutte le interfacce informatiche sono oggetti d’uso, perché sono progettate

come strumenti che alle persone di compiere certe azioni o le nel compierne altre.

permettono aiutano 16

17

Vediamo una definizione di usabilità ufficiale e autorevole: quella della norma Iso 9241 del 1992. Questa

norma definisce l’usabilità "il grado in cui può essere usato da particolari utenti per

di un programma come

raggiungere certi obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d’uso". Per l’Iso,

dunque, l’usabilità è relativa a 3 variabili fondamentali (utenti, ed è caratterizzata

obiettivi, contesti d’uso)

in termini di efficacia, efficienza e soddisfazione, spiegati in questo modo:

(1) l’efficacia è l’accuratezza con cui gli utenti raggiungono i loro obiettivi con il prodotto

e completezza

(2) l’efficienza si misura nei termini del rapporto fra le e l’accuratezza e completezza con cui si

risorse spese

raggiungono gli obiettivi

(3) la è una generale degli utenti verso il prodotto, legata all’assenza di

soddisfazione tendenza positiva

disagi nell’usarlo

Come vedremo, la definizione Iso acquista maggiore chiarezza se leggiamo l’utente come utente modello e

descriviamo in termini narrativi gli obiettivi e i contesti d’uso di cui parla. Dalla è

metà degli anni 90,

soprattutto al che si riferisce l’usabilità, o meglio, L’inventore dell’ingegneria

Web l’ingegneria dell’usabilità.

dell’usabilità è universalmente riconosciuto come il maggior esperto di usabilità nel mondo.

Jakob Nielsen,

L’ingegneria dell’usabilità può essere vista come il tentativo di introdurre nel Web i modelli di

standardizzazione Iso. Come vedremo, entro certi limiti questo tentativo ha ragion d’essere, ma la ricchezza

del Web pone problemi che non possono essere affrontati solo puntando alla standardizzazione. Lo

spostamento dell’usabilità sul Web non dipende solo dallo straordinario sviluppo della rete negli ultimi anni,

ma dal fatto che Internet ha capovolto il rapporto tradizionale fra la scelta (e l’acquisto) di un prodotto o

servizio e il suo uso:

nel progetto di beni materiali e di software, i clienti prima pagano e hanno a che fare con l’usabilità

poi

sul Web, gli utenti hanno a che fare con l’usabilità e poi pagano

prima

È dunque verso l’ingegneria dell’usabilità di Nielsen che procederà la perché la web usability è

nostra analisi,

sicuramente l’ambito più interessante e problematico, dal punto di vista semiotico. Prima di arrivarci, è utile

esaminare alcune posizioni teoriche da cui, nell’ambito della Hci, è emersa quella di Nielsen.

II. Le teorie dei modelli mentali.

Alcune ricerche contemporanee di ambito psicologico e cognitivo hanno elaborato definizioni dell’usabilità di

oggetti d’uso e artefatti informatici basate sulla nozione di Le teorie psicologiche che

modello mentale.

fanno riferimento ai modelli mentali partono dall’assunto che, quanto più le situazioni sono nuove o

complesse, tanto più le persone hanno bisogno di produrre su cosa fare e aspettarsi in quelle

anticipazioni

situazioni. Per questo i modelli mentali giocano un ruolo importante nell’uso di mezzi di comunicazione

informatici, che sono sia nuovi che complessi da usare. Selezioniamo i punti di vista più interessanti per una

rilettura semiotica:

(1) la posizione più rilevante è quella di Ingegnere e psicologo, è socio di un

Donald Norman.

importante gruppo di ricerca e consulenza sull’usabilità. Norman si è occupato in generale di oggetti d’uso

quotidiano (non solo di artefatti informatici), e ha articolato in 7 fasi i processi psicologici che concorrono alla

comprensione degli oggetti. La progettazione di un oggetto d’uso deve fare attenzione in particolare a 2 di

queste fasi:

quella del "golfo dell’esecuzione", creato dal tempo e dallo sforzo necessari per capire quali azioni

l’oggetto rende possibili e per tradurre questa comprensione in una sequenza orientata di azioni si può

colmare questo golfo progettando oggetti che e la loro funzione

rendano visibile comunichino al meglio

quella del "golfo della valutazione", creato dalla difficoltà di stabilire lo stato dell’oggetto dopo che

l’utente vi ha agito si può colmare questo golfo massimizzando il feed-back, cioè l’informazione che arriva

all’utente sull’azione che ha compiuto e sul conseguente stato dell’oggetto

La teoria dei modelli mentali di Norman si basa sull’idea che nell’uso di un oggetto (che Norman chiama

per sottolinearne la complessità) siano in gioco 3 modelli fondamentali:

sistema,

a. il che è il modello concettuale che l’utente elabora dell’oggetto interagendo con

modello dell’utente,

esso

b. il che è il modello concettuale di colui o coloro che hanno progettato l’oggetto, e

modello progettuale,

aderisce a come l’oggetto è in realtà, a come funziona davvero

c. il che è l’immagine complessiva che l’oggetto dà di sé all’utente con

modello o immagine del sistema,

la sua apparenza fisica, il suo funzionamento e un ulteriore insieme di testi costituito da manuali e istruzioni

d’uso, documenti di garanzia, etichette

Idealmente dunque, un utente sa usare correttamente un oggetto quando il suo modello concettuale

a quello progettuale; dal lato dell’oggetto, la sua usabilità è ben progettata se il progettista

corrisponde

anticipa così bene il modello dell’utente, e lo comunica all’utente con un’immagine del sistema così adeguata,

che il modello progettuale finisce per col modello dell’utente. Questa concezione dell’usabilità è

coincidere

troppo astratta. Non è necessario infatti che l’immagine del sistema debba esprimere il modello progettuale:

17

18

più spesso i programmi forniscono un’immagine del sistema diversa dal modello

volutamente inesatta,

progettuale, proprio per facilitare l’uso del programma. Si pensi inoltre a certi videogiochi, che spiegano

abbondantemente il sistema di comandi del personaggio controllato dal giocatore, ma non fanno altrettanto

con i principi di funzionamento dei nemici, perché saperne troppo farebbe perdere al giocatore l’effetto

sorpresa. Infine, non si può valutare la giustezza o meno del modello dell’utente riferendola al funzionamento

reale del sistema, ma bisogna valutarla in cui l’utente applica il suo modello mentale

in relazione al contesto

e al modo in cui il modello mentale lo guida nell’interazione col sistema, perché un modello per certi versi

carente può tuttavia orientare l’utilizzatore in modo valido, se l’aspetto di esso che viene chiamato in causa

dalla persona riesce a guidarla efficacemente nell’interazione.

(2) una posizione meno idealizzata è quella espressa da (inventore dell’ambiente di

Alan Cooper

programmazione Visual Basic), che ha svolto per Microsoft un ruolo paragonabile a quello delle Guidelines

per Apple. Anche per Cooper chi progetta l’interfaccia di un programma informatico deve cercare di

prevedere il modello mentale dell’utente; tuttavia, poiché non è possibile, durante la progettazione,

prevedere come sarà il modello mentale dell’utente, il progettista può solo cercare di avvicinarsi il

esattamente

più possibile ad una previsione esatta, anche se paga il prezzo di allontanarsi dal funzionamento reale della

macchina (modello del programma). Un’altra considerazione interessante per il tema dell’usabilità

manifesto

riguarda la delle interfacce informatiche. Per Cooper una buona progettazione

classificazione degli utenti

deve distinguere gli utenti in funzione della loro diversa esperienza in campo informatico, suddividendoli in

classi ritagliate prendendo atto

su un continuum che va dal principiante assoluto all’utente esperto,

anche del fatto che la maggior parte degli utenti si accontenta di una conoscenza del programma appena

sufficiente ai propri scopi immediati. Un’interfaccia usabile è dunque un’interfaccia che non obbliga

tutti gli utenti a passare alla categoria di esperti.

è possibile rileggere le posizioni di Norman e Cooper:

in chiave semiotica

il di Cooper (insieme delle previsioni che il progettista si crea sull’utente finale) È (in

modello manifesto

termini semiotici) l’utente del sistema

modello

l’immagine di Norman (immagine complessiva che il sistema dà di sé) È l’autore del

del sistema modello

sistema

restano fuori dalla prospettiva semiotica sia il funzionamento reale del sistema (il di

modello progettuale

Norman), sia il modello concettuale che gli utenti empirici si fanno del sistema quando lo usano (il modello

di Norman), equiparabili, il primo, alle intenzioni dell’autore del sistema, il secondo,

dell’utente empirico

all’insieme di stati mentali dell’utente quando interpreta e usa il sistema

empirico

Autore empirico e lettore empirico restano fuori dalle dinamiche di comprensione di un testo; per questo,

autore e lettore modello sono entrambi Un testo è un prodotto la cui

mosse interne al testo, strategie testuali.

sorte interpretativa deve far parte del proprio meccanismo generativo: generare un testo significa attuare una

strategia di cui fan parte le previsioni delle mosse altrui. Nella progettazione dell’usabilità di un sistema,

"con efficacia,

la strategia testuale mira non solo a far vincere l’utente, ma a farlo vincere facilmente,

efficienza e soddisfazione". Per comprendere e analizzare questa strategia testuale non occorre prendere in

considerazione né il modello progettuale né il modello dell’utente empirico.

III. La dimensione narrativa dell’usabilità.

Le interfacce informatiche sono non semplici facilitatori: in loro assenza, infatti, le

strumenti necessari,

persone comuni non riuscirebbero ad interagire, fare cose e raggiungere scopi con la macchina, ma questa

possibilità sarebbe riservata solo ai programmatori e agli esperti di informatica. Tuttavia, le interfacce grafiche

si propongono, più morbidamente, come (= amichevoli per l’utente), e cioè suoi alleati,

user friendly

collaboratori. Come tutti gli oggetti d’uso, le interfacce informatiche possono essere inserite in una dimensione

narrativa, nel senso elementare di narrazione che sta alla base di tutte le storie, dalle più semplici alle più

complesse: la forma minima della narrazione (ciò che Greimas chiama programma di azione o programma

) è infatti l’azione orientata ad uno scopo di un soggetto che vuole un certo oggetto dotato

narrativo [PN]

per lui di valore, che dunque è il suo scopo o obiettivo. Oltre a soggetto e oggetto, ogni programma d’azione

comporta altri 4 ruoli attanziali:

un (qualcuno o qualcosa che collabora col soggetto nel raggiungere lo scopo)

aiutante

un (un nemico esterno o interno, un ostacolo, ..)

oppositore

un (qualcuno o qualcosa, anche una motivazione psicologica, che all’inizio induce il soggetto a

destinante

volere o dovere raggiungere lo scopo e alla fine certifica il suo successo)

un (il soggetto stesso, in quanto indotto a perseguire lo scopo)

destinatario

Ogni programma d’azione comporta: 18

19

(1) uno stato iniziale virtuale, in cui un destinante induce il soggetto a fare qualcosa

volere o dovere

(manipolazione)

(2) una fase attuale in cui il soggetto si procura i mezzi materiali e/o concettuali necessari per conseguire il suo

scopo (si procura cioè il che assieme formano la

sapere e potere necessari, competenza)

(3) un momento in cui il soggetto realizza lo scopo (performanza)

(4) uno stato finale in cui il destinante sancisce che lo scopo è stato raggiunto (sanzione)

Questo è il cosiddetto che, secondo Greimas, soggiace ad ogni narrazione.

schema narrativo canonico

Inoltre, i programmi d’azione spesso non stanno da soli, ma il soggetto, per arrivare all’obiettivo principale,

deve raggiungere alcuni scopi intermedi: in questi casi, il programma di base si avvale di programmi secondari,

che la semiotica narrativa chiama i quali a loro volta possono avvalersi di ulteriori

programmi d’uso,

programmi d’uso, in una gerarchia di programmi inscatolati gli uni negli altri e dipendenti dal programma di

base. L’insieme di programmi d’azione che convergono verso lo stesso obiettivo principale è detto percorso

Nei termini della semiotica narrativa, dunque

narrativo. l’interfaccia utente svolge il ruolo attanziale di

con cui le persone la macchina, cioè cose per realizzare

aiutante manipolano le fanno fare percorsi narrativi

diversi a seconda degli applicativi (scrivere testi, disegnare, navigare sul Web, ..). In altre parole, alla

manipolazione nel senso ordinario del termine, che consiste nell’usare per muovere le interfacce

le mani

hardware della macchina e intervenire nello spazio di percezione-azione delle interfacce utente,

corrispondono atti di manipolazione nel senso della semiotica narrativa, per cui gli utenti fanno fare cose

per raggiungere vari obiettivi. Si arriva così ad una prima caratterizzazione narrativa

alla macchina

dell’usabilità: un’interfaccia informatica è usabile se riesce a svolgere il ruolo attanziale di aiutante

Con questo però

nei confronti di un soggetto che voglia o debba far fare certe cose alla macchina.

abbiamo individuato a posteriori il ruolo narrativo che spetta ad un’interfaccia già progettata, ma non

abbiamo detto nulla di ciò che bisogna fare prima, cioè durante la progettazione, per far sì che l’interfaccia

svolga proprio questo ruolo. Sono gli studi del cosiddetto che considerano

scenario-based design

fondamentale, nel progettare l’usabilità del software, immaginare fin dai primi passi del processo di

progettazione un insieme di possibili fra il software e gli utenti, e descriverli come

scenari di interazione

perché le narrazioni sono particolarmente efficaci per far emergere l’articolazione complessa delle

storie,

azioni e interazioni quotidiane. Posizioni analoghe emergono dalle scienze sociali, e in particolare dai Social

Studies (of Science and Technology); le affinità di questi studi con la semiotica narrativa sono molte. Ad

esempio, parla di che gli oggetti d’uso proiettano intorno a loro, attribuendo alle persone

Latour copioni

ruoli e azioni nelle storie a cui prendono parte. Anche sostiene che si comprendono i dispositivi tecnici

Akrich

solo se si coglie il modo in cui riorganizzano il tessuto di azioni e relazioni umane in cui sono usati. Quando si

progetta un dispositivo tecnico, dunque, è necessario tener conto di questa rete di relazioni e azioni: Akrich

parla di che servono a prevedere e descrivere, quando si progetta un dispositivo

script o sceneggiature

tecnico, il modo in cui gli utenti lo useranno, quali azioni vi compieranno, in quali relazioni lo inseriranno. Il

progettista iscrive queste sceneggiature sia nel dispositivo tecnico, costruendolo in un certo modo piuttosto

che un altro, sia nelle istruzioni, nei manuali, nel contratto di acquisto, nella garanzia, .. L’analogia con il

concetto di sceneggiatura di è evidente. Una per Eco è la descrizione di una

Eco sceneggiatura comune

comunque appunto (andare al cinema, fare la spesa, ..); di una situazione

situazione tipica, standard,

che possiamo immaginare condivisa dalla maggior parte di persone che vivono in

ordinaria, stereotipata

una certa cultura, in un certo momento storico, e appartengono ad un ceto sociale medio. Dal punto di vista

progettuale, quindi, inserire il problema dell’usabilità in una dimensione narrativa significa prevedere le

degli utenti col sistema e descriverle analiticamente come storie. Le

sceneggiature comuni delle interazioni

strutture semio-narrative di Greimas possono infatti essere utili a esplicitare e descrivere in modo

i ruoli e le relazioni di persone, cose, azioni, scopi, mezzi nelle sceneggiature

organizzato e consequenziale

comuni. Nella vita comune, le storie standard di cui è composta una situazione tipica si danno per scontate,

costituiscono cioè insiemi di che guidano i comportamenti e le aspettative reciproche delle

assunzioni implicite

persone. Nel progettare un oggetto che deve svolgere il ruolo di aiutante in queste storie implicite, occorre

invece La progettazione dell’usabilità di un’interfaccia informatica ha

esplicitare il più possibile i dettagli.

tante più probabilità di essere efficace quanto più è accurata e analitica l’esplicitazione delle storie comuni in

cui dovrà essere inserita, esplicitazione che va fatta che il prodotto sia sviluppato ed effettivamente

prima

usato. Non esiste limite di principio per fermare la descrizione di ciò che può accadere in una situazione tipica,

sia perché le variabili sono molte e complesse, sia perché le assunzioni implicite hanno contenuti spesso vaghi

e il loro numero complessivo è indefinito. La precisione e il dettaglio del lavoro preliminare di esplicitazione

dipenderanno dalla potenza e accuratezza degli strumenti di previsione che si adottano, e questi

dipenderanno a loro volta da variabili empiriche e contestuali (budget economico a disposizione, numero di

persone di cui è composto il team di progettazione, ..). Nel 1984 le Guidelines suggerivano di adottare

strumenti di indagine empirica per ottimizzare le previsioni sull’utente modello di un’interfaccia grafica

(osservazione delle situazioni in cui le persone useranno il prodotto, distribuzione di questionari per verificare

19

20

aspettative, esigenze e difficoltà, ..). In 20 anni queste tecniche d’indagine sono state raffinate e oggi sono

standard di progettazione per aziende del calibro di Microsoft, Ibm, .. che hanno a disposizione budget

milionari per sviluppare software da distribuire in tutto il mondo. Nonostante questo, i margini per migliorare

l’usabilità delle interfacce grafiche sono ancora molto ampi, come testimonia la crescita di corsi di formazione

sugli applicativi più diffusi, che mostra quanto per molti sia ancora difficile o indesiderabile imparare ad usarli

da soli. L’analisi semiotica può apportare notevoli contributi in questo campo. Si tratta di valutare a

l’usabilità di un’interfaccia software, analizzandola come testo sincretico sul modello di quanto

posteriori

faremo per i siti web, quindi integrandola con la descrizione analitica dell’utente modello e delle storie tipiche

in cui l’utente modello interagisce con l’interfaccia. La semiotica può poi convertire i risultati dell’analisi in

linee guida per migliorare l’usabilità di un’interfaccia specifica o progettare altre interfacce dello stesso genere,

convertendo cioè la propria vocazione (che si applica al testo fatto e finito) in un

descrittiva a posteriori

approccio (utile prima che il testo sia finito, e strettamente riferito al singolo testo o

normativo a priori

genere testuale). Questa conversione normativa è più efficace, ovviamente, se si conduce l’analisi semiotica

non alla fine del processo di produzione, ma la progettazione di un’interfaccia. Occorre quindi che il

durante

lavoro analitico preliminare sia il più possibile accurato e dettagliato, e che soprattutto non trascuri nessuna di

queste 3 variabili fondamentali:

1. l’utente modello che userà il programma per chi??

2. gli obiettivi che l’utente vorrà o dovrà raggiungere con il programma per cosa??

3. le sceneggiature comuni in cui il programma sarà inserito per quale contesto??

Se queste domande sono scontate nella progettazione delle interfacce software più diffuse, non lo sono ancora

nella progettazione di siti web. Con le interfacce grafiche, abbiamo goduto i frutti di una lunga fase iniziale

solo di ricerca e sviluppo, ristretta alle aziende principali nelle quali operavano veri esperti di interfacce

utente. Come risultato, le idee scadenti sono state scartate e quelle buone sono state codificate in linee guida

precise, prima che anche una sola interfaccia utente venisse inflitta all’utente comune. Al contrario, il Web si

evolve mentre stiamo parlando e gli esperimenti vengono compiuti direttamente su Internet con ciascuno di

noi nella parte della cavia.

IV. L’usabilità dei siti web.

si occupa di usabilità dai primi anni 90, ma la sua popolarità si è ampliata soprattutto quando

Jakob Nielsen

ha cominciato a pubblicare una rubrica sull’usabilità dei siti web, e quando ha presentato il suo libro

Alertbox,

e il suo seguito, La fama di Nielsen è dovuta, oltre che alla sua

Web Usability Homepage Usability.

competenza in questo campo, anche allo stile con cui comunica, sempre provocatorio, aggressivo, radicale. È

a causa di questo stile che intorno a Nielsen i pareri non sono mai sfumati: di solito, o lo si ama molto oppure

lo si detesta.

IV.I. Arte contro progettazione. Subito dopo la pubblicazione di il dibattito

Web Usability,

sull’usabilità del Web si radicalizzò in 2 posizioni antagoniste: ingegneri contro grafici, usabilisti contro

creativi:

da un lato, gli sottolineavano (con la necessità di progettare le pagine web seguendo

usabilisti Nielsen)

regole standard, quando c’erano, e di contribuire a definirle quando mancavano o erano incerte, invitavano a

prediligere la semplicità e la funzionalità del sito agli effetti speciali, e si dichiaravano contrari alla grafica

invasiva, alla presenza eccessiva di immagini e, peggio ancora, di animazioni e multimedialità

dall’altro lato, i (soprattutto art director e grafici professionisti) accusavano la standardizzazione

creativi

di mortificare ogni slancio innovativo e prendevano a riferimento, contro Nielsen, un altro libro-simbolo,

di che al contrario considerava immagini, animazioni e multimedialità

David Siegel,

Creating Killer Web Sites

strumenti imprescindibili di un web design creativo

Ciascuna delle 2 parti semplificava la posizione dell’altra e la rappresentava più estrema di quanto non fosse,

per dare più rilievo e conferire maggiore efficacia alle proprie tesi. All’inizio di Nielsen così si

Web Usability

schierava: "anche se riconosco che sul Web c’è anche bisogno di arte e di svago, credo che l’obiettivo

principale della maggioranza dei progetti web dovrebbe essere il rendere semplice per le persone lo

svolgimento di attività che hanno un qualche fine pratico". Vista in questi termini, la polemica era sterile. Il

Web pone infatti un problema serio alla riflessione sull’usabilità, meno grave nel campo del software.

L’interfaccia di un sito, infatti (a differenza di quella di un programma software, in cui le esigenze di

funzionalità possono, entro certi limiti, prevalere su quelle di estetica), ha spesso anche compiti importanti di

e, nel caso di siti aziendali, di comunicazione dell’identità del marchio (brand

comunicazione d’immagine

È inevitabile quindi che molti siti web debbano fare i conti col design grafico, componente

identity).

fondamentale della comunicazione d’immagine, e che i siti aziendali in particolare debbano essere coerenti

con l’immagine dell’azienda, che è l’insieme complesso di regole che governa tutte le sue

coordinata

comunicazioni con clienti e fornitori (es: il catalogo dei prodotti, l’allestimento di uno stand in fiera, il modo

20

21

in cui le segretarie rispondono al telefono, ..). Il radicalismo di Nielsen non dipendeva però solo dal suo stile

di comunicazione. Infatti fu pubblicato dopo un biennio in cui la grafica per il Web aveva

Web Usability

conosciuto una vera e proprio esplosione, legata alla diffusione di Flash (il celebre programma di Macromedia

nato per creare e visualizzare animazioni sul Web). Grafici alle prime armi, informatici, neolaureati trovarono

nel software di Macromedia uno strumento abbastanza facile per improvvisarsi web designer. Persino

professionisti con molta esperienza grafica sulla carta stampata, ma poca o nessuna sul Web, cedettero alla

tentazione di usare il Web come laboratorio di sperimentazione. Per questo, alla fine degli anni 90

proliferavano siti coloratissimi, pieni di effetti grafici e sonori, di immagini e animazioni, pesanti e lentissimi da

scaricare, poco intuitivi da usare, che tuttavia avevano successo solo perché seguivano l’ultima moda in

ricchezza grafica e multisensorialità. Gli eccessi di Nielsen vanno quindi letti come reazioni esasperate a queste

esasperazioni. Tuttavia, qualche pagina più avanti Nielsen elenca almeno 7 casi in cui può essere utile ed

efficace inserire animazioni in un sito. Con la pubblicazione di Nielsen ha attenuato i

Homepage Usability,

termini della polemica. D’altra parte le cose sul Web sono cambiate, e stanno cambiando ancora proprio nella

direzione auspicata da Nielsen, che è quella della standardizzazione. Così, Nielsen ha potuto passare da una

fase negativa, critica verso il cattivo design, ad una fase positiva, in cui definisce costruttivamente come

dev’essere il buon design. In Nielsen si concentra sul design delle homepage aziendali e

Homepage Usability

commerciali, che sono il "volto pubblico del marchio nei confronti del mondo intero", e definisce 113 linee

guida per il buon design di una homepage aziendale. In realtà non è vero che contenga solo la

Web Usability

della riflessione di Nielsen, perché in realtà è pieno di suggerimenti costruttivi e linee guida, né

pars destruens

che esprima solo la perché gran parte del libro è dedicata ad un’analisi di

Homepage Usability pars costruens,

50 homepage aziendali, viste soprattutto in ciò che non funziona. Inoltre, la maggior parte delle tesi di

Nielsen sono molto meno eccessive e più condivisibili di come lui stesso le ha presentate. Vediamo quali sono.

IV.II. Ergonomia della leggibilità. Esistono requisiti minimi di usabilità delle pagine web che

hanno a che fare con la fisiologia dell’apparato percettivo umano, specie della vista. Rispettare questi requisiti

ergonomici è scontato nelle interfacce grafiche del software commerciale più diffuso, ma non lo è ancora sul

Web, dove ci si preoccupa ancora troppo poco di rendere i testi leggibili a persone dotate di vista normale, e

ancora meno di renderli a persone con disabilità visive. In Nielsen elenca le

accessibili regole

Web Usability

rispettando le quali si gettano le basi non

fondamentali della leggibilità sul Web, per rendere un sito

solo usabile, ma anche disabili:

accessibile a tutti,

(1) occorre scegliere i dello sfondo e del testo in modo La migliore

colori che creino un forte contrasto.

leggibilità si ottiene con un testo nero su sfondo bianco. Il testo bianco su sfondo nero è quasi equivalente, ma

disorienta lievemente gli utenti e rallenta un po’ la lettura. La leggibilità peggiora molto quando il testo è più

chiaro del nero, specie se lo sfondo è meno luminoso del bianco. Mai fare abbinamenti come rosa su sfondo

verde: il testo sarà invisibile a utenti con forme anche lievi di daltonismo rosso-verde

(2) con il riconoscimento visivo dei caratteri e delle parole

gli sfondi grafici interferiscono

(3) il dev’essere da poter essere letto anche da chi porta gli

testo di dimensioni abbastanza grandi

occhiali. Dimensioni molto ridotte dovrebbero essere riservate alla note a piè di pagina e alle clausole legali,

che solo pochissime persone leggono

(4) è meglio usare solo il testo che si muove, lampeggia o cambia continuamente è molto più

testi statici:

difficile da leggere

(5) è meglio se le righe iniziano tutte sullo stesso asse verticale, la lettura è più

allineare il testo a sinistra:

veloce e facile

(6) per la bassa risoluzione degli schermi oggi più diffusi, i testi piccoli sono più leggibili se presentati in

come Verdana o Arial. Alla dimensione di 10 punti ad esempio, i pixel

caratteri a bastone (o sans-serif),

sono troppo pochi per riprodurre i dettagli di un come Times o Times New

carattere aggraziato (o serif)

Roman

(7) è meglio perché la sua lettura è più lenta circa del 10% rispetto alla lettura dello

evitare il maiuscolo,

stesso testo in maiuscolo/minuscolo: l’aspetto più uniforme e squadrato del maiuscolo rende più difficile

riconoscere le parole

Un’altra importante regola per la leggibilità riguarda non solo il dell’espressione, ma anche quello

piano del

è la necessità di perché, per la bassa risoluzione degli schermi, la lettura a

contenuto: scrivere testi brevi

schermo è circa del 25% più lenta rispetto alla lettura sulla carta, e, perciò dovrete scrivere il 50% di testo in

meno (non basta il 25%) perché il problema non è solo la velocità, ma anche il benessere. È chiaro che

violare qualcuna di queste regole non vuol dire esprimere la propria creatività, ma rendere più difficile o

compromettere la leggibilità dei testi che si mettono sul Web. La normatività insita in queste regole ha gradi

diversi di coerenza:

alcune devono essere rispettate per non impedire l’accesso a tutti o a certi utenti

altre dovrebbero essere rispettate

21

22

altre ancora possono essere rispettate per migliorare l’usabilità del sito

IV.III. La critica delle metafore. In generale si pensa che Nielsen sia nettamente contrario

all’uso di metafore sul Web, troppo "artistiche" per i suoi gusti. In realtà la posizione di Nielsen sulle metafore

è molto meno drastica di quanto comunemente si riconosca. Nielsen sostiene: "spesso nella progettazione web

si abusa delle metafore. Di solito è meglio esprimersi in senso letterale e descrivere ciascun elemento

dell’interfaccia per ciò che fa, piuttosto che cercare di far rientrare tutto quanto dentro una metafora. Detto

questo, ci sono 2 motivi per cui una metafora può essere utile:

Primo. può fornire una cornice unificante che induca a percepire il progetto come un tutto unico anziché

come una raccolta di elementi distinti

Secondo. una metafora può facilitare l’apprendimento, permettendo agli utenti di riutilizzare ciò che sanno

del sistema reale a cui la metafora si riferisce"

La posizione di Nielsen è equilibrata anche quando valuta i vantaggi e svantaggi della standardizzazione

"i carrelli della spesa sono ormai talmente comuni nei siti di e-commerce che da metafora

delle metafore:

sono diventati uno standard di interfaccia. I vantaggi derivano dalla coerenza, che è anche più forte della

metafora come strumento di apprendimento. In effetti, gli utenti non devono imparare niente finché un

elemento dell’interfaccia si comporta nel modo a cui sono abituati. Nello stesso tempo, il carrello della spesa è

un’interfaccia inadeguata a molti tipi di applicazioni, ma i progettisti sono obbligati ad usarlo perché gli utenti

ormai si aspettano di trovarlo". La dunque molto simile a quella di

posizione di Nielsen sulle metafore è

Apple nel 1984: le metafore vanno usate quando si introduce un nuovo mezzo, perché servono a

familiarizzare gli utenti con un ambiente non ancora noto, ma possono essere contraddette, se serve, e vanno

al più presto trasformate in standard, perché la maggiore usabilità si ottiene quando gli utenti sono talmente

abituati ad un’icona o un’espressione linguistica da comprenderne immediatamente la funzione, dimenticando

la sua origine metaforica. La maggior parte delle metafore che si usano sul Web sono tratte dalla nostra

esperienza dello spazio e del movimento nello spazio:

sul Web troviamo infatti cioè luoghi in cui e da da cui e verso cui

siti, stare visitare, partire andare

seguendo percorsi

il primo ambiente di un sito web è la sua cioè una pagina-casa

homepage,

molti siti forniscono una del sito per meglio orientarci

mappa

un certo genere di siti si chiamano perché dovrebbero fungere da nel Web

portali, ingresso principale

il nostro movimento da una pagina web all’altra è in genere una (da cui

navigazione Netscape Navigator,

la la di alcuni siti), ma quando non abbiamo mete precise e andiamo in giro per

barra di navigazione, bussola

il Web curiosando qua e là, facciamo (da cui

esplorazione Explorer)

Altre metafore sono tratte dai libri: i siti hanno che possiamo navigare, ma anche

indici e pagine sfogliare

(browser = "sfogliatore"; to browse = "scartabellare, scorrere le pagine"), hanno segnalibri (bookmarks), titoli

come ce li hanno anche i link (il è la scritta che, da Explorer 4.0 in poi, compare

e sottotitoli, titolo del link

quando passiamo col mouse su un link). Altre metafore, infine, provengono dal mondo della televisione: nei

siti web possiamo infatti trovare (arte, musica, spettacolo, ..), mentre i portali, come le

canali tematici

televisioni, sono (o orizzontali) quando offrono contenuti, servizi, strumenti di ricerca, .. sui temi

generalisti

più disparati, dall’informazione al meteo, dalla finanza agli oroscopi (es: Kataweb.it), oppure sono (o

tematici

verticali, di nicchia) quando si occupano di temi specifici (es: tecnologie e comunicazione Internet [Html.it],

scuola [Webscuola.it], libri [Alice.it], ..)

IV.IV. Gli standard del Web. si sono assestati il maggior numero di standard che

Dal 1997 ad oggi

regolano il modo in cui appaiono e sono organizzati gran parte dei siti web. Cerchiamo di capire fino a che

punto la ricerca di standard non è solo legittima ma auspicabile, e oltre quale soglia diventa invece un limite,

non tanto per la creatività degli art director, quanto per l’usabilità dei siti web e la riflessione su questo tema.

Le sono ergonomiche (abbiamo già

ragioni più importanti per sostenere la standardizzazione sul Web

visto quelle relative ai testi verbali). È sempre su basi ergonomiche che si è assestato il modo in cui i siti web

organizzano il rapporto fra lo spazio dei contenuti e i cosiddetti link strutturali o strumenti di

che sono i pulsanti che permettono di sfogliare le pagine del sito e che definiscono la

navigazione, struttura

(= Poiché l’occhio, nel guardare lo schermo, segue un percorso che va

dei contenuti architettura del sito). (almeno nelle culture in cui si legge da sinistra a destra),

dall’alto verso il basso e da sinistra verso destra

ci sono 2 aree privilegiate per inserire gli strumenti di navigazione di un sito:

la fascia orizzontale in alto, adiacente alla barra di comandi del browser (che sta lì per la stessa ragione

ergonomica)

la fascia verticale a sinistra, adiacente alla cornice di plastica del monitor

Inoltre, 2 aree molto importanti dello schermo sono quella in alto nell’angolo a sinistra e quella centrale in

alto, perché entrambe sono sempre visibili a colpo d’occhio, senza scorrimento e indipendentemente dalla

22


ACQUISTATO

1 volte

PAGINE

38

PESO

456.02 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Esame: Semiotica
Corso di laurea: Corso di laurea in scienze della comunicazione
SSD:
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher valeria0186 di informazioni apprese con la frequenza delle lezioni di Semiotica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Insubria Como Varese - Uninsubria o del prof Facchetti Giulio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Semiotica

Riassunto esame Semiotica, prof. Facchetti, libro consigliato Manuale di Semiotica, Volli
Appunto
Semiotica - appunti lezioni significato significante, saussure, peirce, quadrato semiotico
Appunto
Semiotica in nuce - introduzione
Dispensa
Semiotica - domande esame semiotica
Appunto