Che materia stai cercando?

Riassunto esame Teoria e tecnica comunicazione, prof. Sbordoni, libro consigliato Il mondo digitale, Ciotti, Roncaglia Appunti scolastici Premium

Riassunto per l'esame di Teoria e tecnica della comunicazione, basato su appunti personali e studio autonomo del testo consigliato dal docente "Il mondo digitale" di Ciotti e Roncaglia . Nello specifico gli argomenti trattati sono: dal computer alle reti, dal cyberspazio all'arte elettronica e agli ipertesti, dalla realtà virtuale all'intelligenza... Vedi di più

Esame di Teoria e tecnica comunicazione docente Prof. C. Sbordoni

Anteprima

ESTRATTO DOCUMENTO

Memoria esterna di una certa ampiezza in grado di migliorare le prestazioni della CPU detta memoria

cache

DISPOSITIVI DI MEMORIA DI MASSA

La memoria RAM interna di un computer diventa sempre + ampia, ma è una memoria volatile, non è in

grado di conservare in maniera permanente dati e programmi

A questa esigenza rispondono i cosiddetti dispositivi si memoria di massa : disco rigido, floppy dosk, CD-

Rom, DVD nastri, cartucce,

Floppy disk: 1,44 Mb materiale magnetico,

CD Rom diffusissimi, supporto ottico, una volta scritti sono di sola lettura, e non possono essere modificati

con nuovi dati.

DVD simili ai CD ma dimensioni maggiori da 4,7 a 17 Gb

Altre Periferiche

Più importanti INPUT

Tastiera : INPUT serve ad immettere nel PC numeri e testo, ma anche a guidare lo svolgimento di un

programma.

Mouse: INPUT per lavorare su ambienti esterni o sistemi operativi ad icone, al movimento del mouse su un

piani viene fatto corrispondere il movimento del puntatore nello schermo. Viene comunicato al computer

attraverso i segnali inviati da sensori collocati intorno alla pallina sulla superficie inferiore del mouse stesso.

Ha uno o più tasti e alla cui pressione fa corrispondere azioni sugli oggetti situati nell’area dello schermo.

JOYSTICK INPUT giochi.

Scanner: INPUT per far acquisire al computer immagini e testi a stampa.

Tavoletta grafica: INPUT movimenti di penna sulla superficie vengono registrati da appositi sensori e

vengono fatti corrispondere ai movimenti di una penna virtuale sullo schermo del computer.

OUTPUT

Monitor:dimensioni misurate in pollici , portatile schermo a cristalli liquidi possono essere basati sulla

tecnologia dual scan o matrice attiva , o cristalli liquidi , elevata qualità dell’immagine.

Stampante: sono di tre tipi ad aghi, laser ed a getto di inchiostro. Plotter stampanti grafiche a penninino

utilizzate per la progettazione e il disegno architettonico.

PROGRAMMI

HARDWARE:componenti fisiche

SOFTWARE: programmi che il pc è in grado di eseguire, che da vita all’hardware.

SISTEMA OPERATIVO:

Il BIOS comprende una programmazione di base che mette il processore in grado di conoscere le principali

componenti installate sul computer e di comunicare con esse. Es riconosce l’esistenza del floppy.o dei dischi

rigidi.

All’inizio erano basati sull’idea che la comunicazione fra uomo e computer avvenisse attraverso un

linguaggio: artificiale e assai povero. ES MS-DOS (Disk Operating System Microsoft)o UNIX , si basavano

sull’idea che l’utente impartisca i propri comandi in forma scritta , utilizzando la tastiera.

Adesso Interfaccie ad Icone o grafiche, l’utente interagisce attraverso il puntatore del mouse.

Sistema Operativo con Interfaccia grafica è stato sviluppato negli anni 70, nei laboratori della Palo Alto della

Xerox , ma la loro diffusione la si ha solo con Apple, poi con Macintosh nel 1984 hanno adottato sistemi

operativi a icone.

Commodore Amiga aveva l’interfaccia a grafica a icone, ed esistono per molte versioni di UNIX

Il sistema operativo è dunque il primo e più importante programma a disposizione del computer, una volta

presa coscienza di sé attraverso l’acquisizioni delle informazioni contenute nel Bios, la prima operazione

fatta dal computer è il caricamento del sistema operativo, presente nel disco rigido.

File system

Il computer conserva sulle memorie di massa i documenti e i programmi utilizzati, creati volontariamente

dall’utente o creati autonomamente dal computer, essi sono dei file: Unità informative autonome di ciascuno

dei quali il computer deve conoscere l’esatta collocazione, le dimensioni e le caratteristiche.

File : estensione del concetto di documento.

Il computer deve essere in grado di organizzare questi file per il facile reperimento, deve copiarli da una

memoria ad un’altra ,

File System provvede a queste operazioni , l’utente ne ha accesso tramite un programma che consente di

visualizzare la struttura usata per ordinare i file all’interno del disco rigido.

Alcuni fra i principali sistemi operativi

CP/M: Uno dei primi sistemi operativi per personal computer, il CP/M (Control Program for Microcomputers)

è stato creato dalla Digital Research Corporation (e in particolare da Gary Kildall). Si tratta di un sistema

operativo a caratteri, ormai obsoleto

DOS: Acronimo di Disk Operating System. Il termine è generico, ma viene in genere utilizzato con

riferimento al MS-DOS,. Si tratta di un sistema operativo a caratteri,. E’ considerato oggi superato,

UNIX: Sistema operativo a caratteri sviluppato nei laboratori della Bell attorno alla metà degli anni ’70, lo

UNIX nasce come sistema operativo modulare e flessibile rivolto soprattutto all’utilizzazione da parte di

programmatori professionisti Pur essendo un sistema operativo a caratteri, le sue capacità di multitasking e

multiutenza, la sua concezione modulare e l’utilizzazione diretta di un linguaggio di programmazione

particolarmente potente, il C, lo rendono tuttora assai diffuso, anche se in genere a livello di workstation,

ovvero di sistemi più potenti dei personal computer casalinghi. Negli ultimi anni, tuttavia, ha raggiunto una

notevole diffusione una versione ‘popolare’ di UNIX denominata Linux, realizzata per iniziativa del

programmatore Linus Torvalds, distribuita gratuitamente e capace di girare su molte piattaforme diverse

(inclusi i normali PC IBM compatibili).

Microsoft Windows: Diffusissima famiglia di sistemi operativi grafici sviluppati nel corso degli anni dalla

Microsoft, basati su un ‘piano di lavoro (desktop) organizzato in ‘finestre’ (windows) all’interno delle quali

aprire programmi e conservare oggetti e documenti. Al momento, circa l’80% dei personal computer adotta

un sistema operativo Microsoft Windows. Di Windows esiste anche una versione ‘ridotta’ adatta a computer

palmari e dispositivi quali autoradio e telefoni cellulari, denominata Windows CE.

MAC OS: Il sistema operativo adottato dai computer Macintosh è stato il primo esempio di sistema

operativo grafico a conoscere una larga diffusione a livello di personal computer, ben prima che la Microsoft

distribuisse le prime versioni di Windows. Le soluzioni tecniche adottate dal MAC OS sono state sempre

all’avanguardia, soprattutto nel campo della facilità d’uso della interfaccia utente, e sono state premiate da

una larga diffusione dei Macintosh in settori ‘di punta’ come quello della grafica professionale.

OS/2: Sistema operativo grafico sviluppato a partire dalla fine dagli anni ‘80 dall’IBM, all’inizio in

collaborazione, ma ben presto in concorrenza con i sistemi Microsoft Windows. Nonostante le sue avanzate

caratteristiche tecnologiche, il predominio di fatto della Microsoft nel settore del software ha fatto sì che la

maggior parte degli utenti OS/2 finisse comunque per utilizzarlo come una sorta di ‘emulatore’ di Windows,

facendovi girare gli stessi programmi normalmente utilizzati sul sistema operativo della Microsoft. Come è

facile capire, questa situazione ha finito per relegare in secondo piano i punti di forza specifici di OS/2, e in

ultima analisi per indurre la maggior parte dei suoi utenti a tornare direttamente ai sistemi operativi della

famiglia Windows.

La storia di Windows

Novembre 1985 : la Microsoft, come risultato di un progetto di studio iniziato nel 1982 e indubbiamente

influenzato dalle interfacce realizzate dalla Apple prima per l’Apple Lisa e poi per il Macintosh, distribuì la

prima versione di Windows, la 1.0. In Windows 1.0 le finestre si potevano affiancare come schede del

domino, ma non sovrapporre.

novembre 1987, con Windows 2.0, che le finestre di Windows acquistano quest’ultima, fondamentale

capacità, e che compaiono le icone per rappresentare i file, i menu, i box di dialogo. Windows 2.0 è anche il

primo segnale del ‘divorzio’ fra Microsoft e IBM: con il suo sviluppo, Microsoft abbandona infatti il progetto

OS/2, che sarà portato avanti dalla sola IBM.

Maggio 1990, Windows 3.0 assorbì queste versioni, e aggiunse il supporto per il nuovo processore 80486.

Sfruttando le caratteristiche dei nuovi processori, Windows 3.0 acquistò la capacità di gestire fini a 16 Mb di

memoria: un notevole passo in avanti

Anche l’interfaccia di Windows 3.0 fu completamente ridisegnata (Windows 3.1): caratteri scalabili, capacità

sonore e musicali, moduli comuni per i box di dialogo e per l’interfaccia con i programmi. Una specifica

versione del sistema operativo, denominata Windows for Workgroup o Windows 3.11, permetteva anche il

supporto di reti di computer.

Nel luglio 1993 nato Windows NT (New Technology), la versione ‘professionale’ del sistema operativo,

basata su un’architettura a 32 bit. Fra le caratteristiche di Windows NT era la capacità di gestire ‘nomi lunghi’

per i file:

Nell’agosto 1995, architettura a 32 bit e nomi lunghi arrivano anche nel mondo Windows ‘di base’, attraverso

la nuova versione del sistema operativo. La Microsoft abbandona la ‘numerazione progressiva’ delle versioni

di Windows, la battezza Windows 95. Accesso ai principali programmi e alle principali funzionalità viene

raggruppato in una serie di menu a tendina accessibili attraverso il pulsante ‘Avvio’, mentre le capacità di

supporto multimediale aumentano ulteriormente.

Nell’agosto 1996, l’interfaccia di Windows 95 arriva anche alla nuova versione di Windows NT, la 4.0. Nel

novembre dello stesso anno esce anche la prima versione di Windows per computer palmari, denominata

Windows CE 1.0. La versione 2.0 di Windows CE uscirà nel 1997.

Caratteristiche

Il più diffuso da diversi anni , dal l985 ad oggi fino al Vista. Facile ed intuitivo da utilizzare e complesso , che

permettere di svolgere moltissimi compiti e operazioni diverse.

10 caratteristiche di base:

1 Desktop tavola di lavoro – 2 icone rappresentazioni grafiche dati o programmi, 3 puntatore del mouse

serve per aprire selezionare o trascinare (Drag and drop),4) finestre sovrapposte ridimensionate, spostato o

accantonate temporaneamente. 5 barra delle applicazioni la chiusura di una finestra corrisponde alla

chiusura di un programma 6) Menu 7) pulsanti 8) Pulsante d’avvio o Start,permette l’accesso a un menù

attraverso cui raggiungere tutti i principali programmi istallati nel computer 9) finestra esplora risorse, per la

gestione dei file 10)sistema di aiuto HELP, che sostituisce i manuali del sistema operativo.

I programmi applicativi

Il sistema operativo è l’ambiente di lavoro attraverso il quale svolgere l’interazione tra computer e utente.

Per permettere di funzionare meglio dovremo affiancare al nostro computer particolari programmi applicativi

che corrispondono ai nostri interessi alle nostre necessità, , programmi per scrivere, disegnare, fare calcoli,

ascoltare musica, giocare.

Programmi di calcolo: o foglio elettronici o spreadsheet, si tratta di programmi utilizzati per creare tabelle

di dati, numerici, effettuare calcoli automatici, quelli più recenti dispongono anche di una sofisticata funzione

per l’analisi dei dati emessi, grafici, diagrammi.Quello più usato è il Microsoft Excel compreso nel pacchetto

Microsoft Office

Videoscrittura, word processor

Anche nel campo della videoscrittura la Microsoft ha il suo dominio con Microsoft Word

Wordstar è stato il primo programma, Word Perfect della Corel, sembrava poter sfidare la Microsoft, ma si è

ridotto la sua quota di mercato negli ultimi anni.

Database: creazione e gestione di dati, costituito da una collezione di schede o Record dalla struttura

regolare e organizzata in campi. Il programma è Microsoft Access.

TELEMATICA E RETI DEL COMPUTER

L’incontro tra telecomunicazione e computer avviene negli anni 60

Oggi la convergenza tra i due mondi è un dato acquisito, Information and Comunication Technology,

La telematica si occupa della trasmissione di informazione a distanza tra sistemi informatici , mediante reti di

computer., con un consumo minimo di bit ci consente di trasferire dati da un computer all’altro, quando essi

sono collegati.

Telecomunicazione

Comunicazione a distanza: Siamo in presenza di un sistema di telecomunicazione se il trasferimento di

informazioni nello spazio avviene mediante il trasporto di energia e non di materia

Il trasferimento avviene tramite il trasporto di flussi di energia come la corrente elettrica, attraverso un

mezzo che può essere fisico o immateriale (onde radio), sono molto veloci, e viaggia più rapidamente della

materia ed è in grado di superare molti ostacoli.

Trasmissione Analogica.

Una rappresentazione analogica cerca di riprodurre alcune caratteristiche del fenomeno rappresentato

segnalando ogni loro minima variazione.

Nella trasmissione analogica si stabilisce un rapporto continuo tra il fenomeno rappresentato e il suo

vettore, tale che per variazione di stato nella fonte si ha una variazione di stato nel vettore.

Trasmissione digitale.

Consiste nella trasmissione di informazioni in formato digitale e sono veicolate in forma di bit.

Elementi Del Segnale ogni bit viene rappresentato da uno o più impulsi discreti e discontinui del vettore.

corrisponde un singolo segnale, allo zero corrisponde un livello basso di tensione elettrica, a all’uno un livello

alto.

Velocità di trasmissione : ovvero quantità di informazioni digitale che un canale è in grado di trasmettere

nell’unità di tempo.

Bit: unità si misura dell'informazione in digitale

Bit al secondo è la velocità di trasmissione

Modem è il mezzo per la modulazione7demodulazione , per la conversione dal Digitale

all’Analogico(modificare alcuni parametri, in modo da codificare gli 1 e 0 della fonte

Pulse Code Modulation (PCM) è il sistema di codifica delle telecomunicazioni.

Telecomunicazioni e Computer

Anni 60 avviene l’incontro tra il computer e quello delle telecomunicazioni

Cominciava l’esigenza di condividere le risorse informatiche. Nato il microchip, non utilizzato per costruire

computer.

diffusione dei terminali remoti, collegati ad un computer centrale attraverso cavi.

Es SAGE cuore del sistema di difesa antimissilistica degli Stati Uniti.24 radar collegati ad un elaboratore nel

New Jersey.

Per avere un vera condivisone necessitava far comunicare tra loro un insieme di computer , in modo che

potessero viaggiare da uno all’latro ed essere elaborati. Cioè realizzare una rete

RETI:

Rete di computer: estende la capacità di circolazione dei bit per la trasmissione di informazione in formato

digitale tra diversi computer

Questo genere di applicazioni si basano su una architettura Client-Server.

Server: gestisce l’archiviazione definitiva dei dati, le funzioni relative alla ricerca di particolari dat nell’archivio

e l’invio dei dati richiesti al Client

Client richiede i dati e controlla la loro rappresentazione all’utente ed eventualmente la loro modifica e

manipolazione interattiva. MODULO D’INTERFACCIA CON L’UTENTE

Le componenti logiche di una rete telematica sono invece i programmi di gestione del collegamento e del

traffico dei dati denominati PROTOCOLLI.

Tipi di reti:

Sono varie: Ethernet, Token Ring, ATM, FDDI.

Una delle distinzioni più comuni è basata sull’estensione fisica della rete: Rete locale o LAN (Local Area

Network) rete geografica o WAN (Wide Area Network)

Rete Locale: estensione limitata , collegata interamente all’interno di un edificio (scuole-centri di ricerca)

Reti dipartimentali: se si estende su aree più vaste spesso collegandosi ad altre reti locali.

Ethernet: tecnologia diffusa per realizzare LAN: anni 70, centro di ricerca PARC Xerox città Palo Alto da

Bob Metcalfe

Rete geografica: distribuita su distanze molto grandi (filiali di banca, o dif. sedi di un’azienda).

Possono coprire aree di pochi chilometri dette MAN(Metropolitan Area Network) o distanze intercontinentali

delle grandi reti aziendali e finanziarie e di Internet (rete geografica per eccellenza)

LA STORIA DI INTERNET

Washington 1966 Bob Taylor dirigente delle ARPA propose al suo direttore il finanziamento di un progetto

volta a consentire la comunicazione e lo scambio di risorse tra i computer dei vari laboratori universitari

finanziati dall’agenzia.

L’ARPA era un dipartimento della Difesa americana che aveva lo scopo di finanziare la ricerca di base nel

campo delle tecnologie innovative.

Guerra Fredda, l’UNIONE SOVIETICA lancia il primo Sputnik all’America che si era a questo punto conto che

la competizione sul piano militare e civile, passava anche e soprattutto attraverso quello tecnologico

L’obiettivo di Bob Taylor era di aumentare la produttività e la qualità del lavoro scientifico permettendo ai

ricercatori universitari di comunicare e di condividere le risorse, in particolare quelle informatiche

Origine belliche della rete equivoco dalla stesura di Larry Roberts che riprese da Paul Baran delle idee ideate

negli anni 60

Baran lavorava presso la RAND Corporation un azienda californiana che vendeva tecnologie ai militari sin

dalla seconda guerra Mondiale, e si occupò di un sistema informatico che fosse resistente ad un eventuale

attacco nucleare, la soluzione migliore era una rete distribuita e prevedeva che nessun nodo avesse la

funzione di concentratore e che ciascun nodo fosse collegato da almeno altri quattro nodi

L’assenza di un nodo centrale eliminava ogni possibile obiettivo strategico. Baran pensò che gli elaboratori

digitali erano i migliori per questo scopo. Inoltre ebbe un'altra idea piuttosto che inviare un messaggio in

un altro nodo all’altro come unico blocco di bit meglio dividerlo in molte parti che possano viaggiare

attraverso più percorsi verso la destinazione dove vengono ricomposti.

Tutte queste idee furono riprese e costituirono le linee guida del progetto ARPANET

1969 fase esecutiva del progetto Bolt Beranek and Newman (infrastrutture hardware e software)

Sviluppo dei protocolli fu affidato ad un gruppo di giovani ricercatori e specializzandi. Essi costituirono il

NWG(Network Working Group)

Ogni idea, risorsa e strumento che veniva elaborato dai primi utenti creatori, veniva messo subito in circolo e

diveniva una ricchezza comune. Questo ha determinato lo sviluppo negli anni successivi la libera circolazione

delle innovazioni.

1972 Arpanet contava già 37 nodi. Il primo protocollo di comunicazione tra host fu battezzato NCP(network

Control Protocol) sulla base vennero sviluppati il File Transfer protocol(il protocollo per il trasferimento dei

file) il Telnet(per l’emulazione di terminale) e soprattutto i primi sistemi di posta elettronica.

1973 Vinton Cerf e Bob Kahn svilupparono un nuovo protocollo:il TCP/IP, che implementava in modo

semplice ed efficiente le idee di trasmissione a pacchetti in una rete decentrata e permetteva di integrare in

un unico ambiente comunicativo reti e mezzi di comunicazione. Grazie al TCP l’originario sistema telematico

progettato da Taylor e Roberts si andava trasformando in una interrete INTERNET

Anni 80 la National Science Foundation un ente governativo preposto al finanziamento della ricerca di base,

iniziò a sponsorizzare la costruzione di reti tra le Università americane e la loro connessione alla Arpanet.

Nacquero Csnet, Bitnet-Usenet

1983 l’amministrazione decise di dividere l’originaria Arpanet in due tronconi: Militare (Milnet) e uno di

ricerca

1985 NSF decise di costruire una nuova rete veloce che potesse fungere da backbone al sistema

internetworking accademico americano e di darne accesso gratuito ai consorzi delle Università che fossero

dotate di reti localizzate. Nacque NSFnet

1898 venne chiusa Arpanet.

Anni 90 gestori privati di reti di telecomunicazione interessati a vendere ad altri privati l’accesso alla rete

cominciarono a vendere le loro dorsali sempre più veloci.

1995 NSF venne ceduta ad un privato

Tim Berneners Lee sviluppò un sistema per pubblicare sui nodi della rete documenti testuali interconnessi,

battezzato World Wide Web

1993 prima interfaccia grafica il famoso Mosaic

Internet diventò utilizzabile anche da utenti non esperti e la rete entrò finalmente nelle case.

Internet è il mezzo di comunicazione che si è diffuso + rapidamente.

Ciberspazio

Legato alla letteratura del ciberpunk, propone un futuro nel quale buona parte dlla nostra vita si svolgerà

all’interno di ambienti virtuali, nei quali ci muoveremo attraverso i nostri simulacri informatici e potremo

interagire sia con altre persone con programmi, e oggetti informativi

INTERFACCIA: Qualunque strumento che ci aiuti ad interagire con il mondo intorno a noi e svolgendo

dunque una mediazione fra noi e il mondo esterno , può essere considerato un INTERFACCIA

Definiremo interfaccia l’insieme di dispositivi hardware e software che ci permettono di interagire con una

macchina o con un programma , in maniera semplice e intuitiva

Interfacce generiche adatte a una pluralità di situazioni possono essere affiancate da interfacce specifiche o

anche sostituite che offrono una maggiore efficienza, ma in un numero minore di casi

Il concetto di interfaccia in ambito in informatico vi sono due differenze:

INTERFACCIA HARDWARE che rappresentano la superficie fisica di contatto fra i nostri sensi e la

macchina

INTERFACCIA SOFTWARE il mondo in cui un programma si presenta e ci permette di utilizzare le sue

funzionalità attraverso l’uso di finestre, pulsanti e icone.

INTERFACCIA A CARATTERI: nella quale la comunicazione col computer avviene digitando caratteri

alfanumerici sulla tastiera e ricevendo risposta caratteri alfanumerici sullo schermo del monitor. ES

Command line interface: basate sul principio della linea dei comandi DOS , stabilisce un tipo di

comunicazione LINGUISTICO VERBALE fra uomo e macchina

INTERFACCIE GRAFICHE: od a icone es Windows, Macintosh, IBM OS/2 UNIX

Si basano sulla metafora del desktop o tavolo da lavoro , lo schermo viene utilizzato come uno spazio

bidimensionale, sul quale vi sono i strumenti di lavoro le piccole icone., dove diventa un vero e proprio

spazio di lavoro virtuale , all’interno del quale ci muoviamo attraverso un puntatore del mouse.

Realtà Virtuale

Non intendiamo negare qualunque forma di realtà ai fenomeni .SIGNIFICA che la realtà che la realtà

specifica di questi fenomeni pur non essendo una realtà fisica è strutturata sul modello costituito dalla realtà

fisica, spazio virtuale è un modo simile allo spazio fisico, ma non è uno spazio fisico.

AVATAR rappresentazione che può spostarsi all’interno dello spazio virtuale avvicinandosi o allontanandosi

dai luoghi o oggetti che vi si trovano

È dotato di una sua dimensionalità e si può pensare che rappresenti uno spazio reale e possibile anche se

dotato di leggi fisiche o geometriche lontane da quelle alle quali siamo abituati. Permettono un livello di

interazione maggiore che arriva ai limiti dell’immersione l’utente non si limita a guardare ma può muoversi

cambiando prospettive e punti di vista.

Nel WEB i links sono anche per il navigatore un dato che suggerisce il precorso da seguire che egli può

decidere autonomamente ma che è stato predisposto da qualcun altro,.

Il movimento è la prima delle possibilità aperte agli spazi virtuali creati attraverso l’uso dell’informatica e

della telematica, dove è possibile agire e le nostre azioni possono produrre effetti diretti anche sulla realtà.

Un’altra modalità di azione è la Comunicazione, e gli spazi virtuali sono spazi informative comunicativi., gli

ambienti sono piuttosto condivisi, nei quali possiamo interagire con altri utenti.

CIBERSPAZIO.

Si deve allo scrittore William Gibson , autore del romanzo Neuromancer(1984). E dunque secondo lui

un’allucinazione consensuale una rappresentazione grafica di dati tratti dalle banche dati di ogni computer

nel sistema umano,

Il ciberspazio può essere considerato uno spazio informativo perché al suo interno è fatto di informazione ed

è possibile consultare informazioni.

È dunque un luogo di organizzazione e condivisione dell’informazione , con la particolarità che l’informazione

è in formato digitale dotata dalla peculiare caratteristica di riproducibilità e facilità di trasferimento.

VIDEOPLACE istallazione realizzata da Krueger tra il 1975 e il 77 con videocamere e mixer, e lo

considerava un ambiente concettuale privo di esistenza fisica basato sulla premessa che l’atto della

comunicazione crei un luogo che è composto da tutte le informazioni che i parlanti condividono in quel

momento.

VRML

Rappresenta il punto di incontro tra realtà virtuale e Internet, è un linguaggio ideato da tre guru Mark Pesce,

Tony Parisi, Dave Ragett, promosso dalla Silicon Graphics. Il suo scopo è quello di descrivere mondi

tridimensionali, che possono essere navigati in maniera analoga a quanto accade per le normali pagine

bidimensionali di WWW.

Comprende istruzioni per descrivere un certo numero di oggetti -base , la loro posizione intensità delle fonti

luminose caratteristiche di opacità o trasparenza delle superfici, non è un linguaggio di marcatura ma di

descrizione , comprende anche le istruzioni per rendere attivi gli oggetti

Macchine intelligenti

Dispensa 2: Dalla comprensione del linguaggio alla rappresentazione della conoscenza

Introduzione

Il test di Turing

Una possibile soluzione al problema di decidere se un computer sia intelligente o meno potrebbe

consistere nel trovare una definizione precisa di ‘intelligenza’, una specie di elenco che dica: l’intelligenza è

questo e quest’altro. Una volta in possesso di questa definizione potremmo prendere il computer che

‘asserisce’ di essere intelligente, e vedere se veramente presenta tutte le caratteristiche presenti nell’elenco.

Sfortunatamente, tra gli studiosi dell’intelligenza (psicologi, filosofi, neuroscienziati, antropologi etc.) non vi è

molto consenso su tale definizione. Ogni volta che se ne è proposta una, qualcuno è saltato sulla sedia

dicendo: eh no, non avete tenuto conto di questo aspetto! Oppure: avete dato troppa importanza a

quest’altro aspetto! E così via.

Una via di uscita molto elegante da questa situazione di stallo è stata proposta, ancora una volta, da

Alan Turing egli propone un metodo per rispondere al quesito che si basa su una specie di gioco, il gioco

dell’imitazione.

Si tratta di un gioco a cui partecipano tre persone tra loro estranee. Due di loro, di sesso opposto, sono i

candidati; il terzo (di cui è indifferente il sesso) è l’interrogante. L’interrogante viene chiuso in una stanza in

modo che non abbia alcun contatto, di nessun tipo, con gli altri. Lo scopo del gioco per l’interrogante è

capire quale dei due candidati sia l’uomo e quale la donna. A tale fine egli può solo fare delle domande ai

candidati mediante una telescrivente (oggi useremmo magari un computer collegato in rete). Scopo dei

candidati invece è ingannare l’interrogante. Simmetricamente le loro risposte saranno ‘telescritte’. Questo

vincolo è ovviamente dettato dalla necessità di evitare che l’aspetto, la voce, o persino la calligrafia dei

candidati possano influenzare il giudizio. Ora, dice Turing, immaginiamo di mettere al posto di uno dei due

candidati una macchina ‘presunta intelligente’. Se l’interrogante non è in grado di capire quale tra i suoi

interlocutori sia un uomo e quale una macchina, allora possiamo asserire tranquillamente che la macchina è

intelligente.

È importante che le domande dell’interrogante durante il gioco riguardino vari argomenti e abbiano un

carattere generale. Infatti se chiedessimo “quanto fa 10 elevato alla 23 diviso 5” pensando che la macchina

risponderebbe pressoché subito mentre l’uomo (o la donna) impiegherebbe molto più tempo, potremmo

essere tratti in inganno da un trucco banale: basterebbe programmare il computer per aspettare alcuni

minuti prima di rispondere a domande sui numeri. Mentre se una macchina fosse veramente in grado di

superare il test rispondendo a domande sulla poesia, o sui suoi gusti gastronomici, o sull’amore, allora il

successo ci dovrebbe far ammetter che essa sia intelligente.

Il gioco dell’imitazione nella versione con il giocatore artificiale è divenuto noto come test di Turing, e

secondo il suoi ideatore sarebbe in grado di sostituire in tutto e per tutto la domanda astratta “Possono

pensare le macchine?”. Esso è cioè un test per l’intelligenza. A dire il vero questa convinzione è stata

sottoposta a diverse critiche. Ad esempio, quando nella metà degli anni ’60 una grande quantità di persone

furono tratte in inganno da un semplice programma – noto come Eliza – in grado di sostenere brevi e banali

conversazioni in inglese, molti ritennero che si fosse confutata l’adeguatezza del test. Tuttavia ancora oggi la

maggior parte degli studiosi di intelligenza artificiale è incline a credere cha il superamento del test di Turing,

opportunamente condotto, costituisca, se non una prova definitiva, almeno un forte indizio dell’intelligenza di

un computer.

Il caso di Eliza il dottore e Parry il paranoico

Tra i molti programmi sviluppati nell’ambito dell’intelligenza artificiale, quello che ha goduto della

massima notorietà è senza dubbio Eliza, realizzato nel 1964 da Joseph Weizenbaum, a quei tempi

giovane ricercatore del MIT. Si trattava di un programma, piuttosto semplice, che simulava una limitata

competenza linguistica in inglese, ma che non aveva alcuna pretesa di comprendere realmente il linguaggio.

Per semplificare il suo compito Weizenbaum aveva pensato di circoscrivere notevolmente l’ambito di

argomenti su cui di volta in volta il suo programma era in grado di conversare:

Siccome ogni conversazione deve avere un argomento, il programma era organizzato su due piani: il

primo conteneva l’analizzatore del linguaggio, il secondo un copione. In questo modo, Eliza poteva essere

messo in grado di sostenere una conversazione su come si cucinano le uova, o sulla gestione di un conto

corrente bancario e così via. Ogni particolare copione permetteva a Eliza di assumere un ruolo diverso nella

1

conversazione. Il primo copione che Weizenbaum diede ad Eliza fu quello per recitare la parte di uno

psicoterapeuta di scuola rogersiana. Una volta terminato il programma, Weizenbaum lo installò su un

computer del suo istituto, e iniziò a farlo provare da varie persone, tra cui la sua stessa segretaria. Questa è

la traduzione italiana di una conversazione tra Eliza, o meglio Doctor, come fu soprannominato il programma

nella sua veste da psicoterapeuta, e una ragazza:

Con grande stupore di Weizenbaum, Eliza ebbe un enorme successo. La gente che conversava con lui

credeva veramente di avere a che fare con uno psicoterapeuta e provava persino sollievo dopo le sedute!

Uno psichiatra, Kenneth Colby, scrisse persino che di lì a pochi anni programmi come Eliza sarebbero stati

pronti per l’uso clinico. Lo stesso Colby poco dopo realizzò un programma non dissimile da Eliza, che

battezzò Parry. Parry simulava il comportamento linguistico di un paranoico. E anche lui ebbe un buon

successo, tanto da riuscire ad ingannare molti psichiatri che, dopo averlo intervistato via telescrivente, si

dissero convinti di avere avuto a che fare con un vero paranoico. Ad un certo punto fu organizzata persino

una seduta di Parry da Eliza!

Sembrava dunque che questi due programmi avessero superato il test di Turing. In realtà né Eliza né

tantomeno Parry erano dotati della sia pur minima intelligenza. Si trattava in entrambi i casi di un insieme di

1 J. Weizenbaum, Il potere del computer e la ragione umana, Edizioni Gruppo Abele 1987, p. 22.

trucchi di programmazione (ad esempio Eliza nella maggior parte dei casi prende le affermazioni del paziente

e le rovescia in forma di domanda cambiando semplicemente i pronomi, cosa che in inglese, peraltro, è

piuttosto semplice) che facevano affidamento sulla credulità dei loro interlocutori. E a ben vedere nessuno

dei due programmi avrebbe mai superato il test nella forma in cui Turing lo aveva immaginato. Le persone

che credettero veramente nelle capacità di Eliza infatti, non prestavano attenzione a ciò che il programma

diceva loro, ma erano piuttosto intenti a sfogarsi. E inoltre l’ambito della conversazione era tanto ristretto da

non essere valido per il test. In ogni caso, se volete provare a fare due chiacchere con Eliza o Parry potete

scaricarne una versione al seguente indirizzo (utilissimo anche per il reperimento di molti altri programmi di

intelligenza artificiale): http://www.cs.cmu.edu/Groups/AI/areas/classics.

L’elaborazione del linguaggio naturale

Nell’affrontare il tema dei fondamenti teorici dell’intelligenza artificiale abbiamo detto che la capacità di

elaborare simboli è alla base del comportamento intelligente. L’esempio di elaborazione simbolica che in

misura maggiore caratterizza gli esseri umani è senza dubbio il linguaggio verbale.

In realtà la capacità di comunicare mediante simboli non è una prerogativa della nostra specie. Tuttavia

nessuna specie vivente conosciuta è dotata di un sistema di comunicazione simbolica così sviluppato e

complesso come il linguaggio verbale. Secondo molti studiosi, dobbiamo proprio alla comparsa del

linguaggio, avvenuta tra 100 e 200 mila anni fa, quell’enorme salto evolutivo che ha differenziato l’homo

sapiens, la nostra specie, da tutte le altre specie di ominidi. Linguaggio e intelligenza, infatti, sono fenomeni

strettamente interconnessi. Lo stesso test di Turing assume che un eventuale computer intelligente deve

sapere comunicare mediante il linguaggio naturale, come facciamo noi esseri umani.

È dunque ovvio che sin dalle origini uno degli obiettivi principali dell’intelligenza artificiale sia stato lo

sviluppo di programmi in grado di produrre e comprendere discorsi in linguaggio naturale. A dire il vero, i

primi passi mossi in questa direzione furono motivati più da interessi pratici che da stimoli teorici. Infatti,

alcuni fra i primi finanziamenti che arrivarono ai progetti di ricerca nell’allora nascente campo dell’intelligenza

artificiale furono attratti dalla prospettiva di sviluppare dei sistemi di traduzione automatica tra varie lingue,

la cui applicazione commerciale era (ed è ) evidente. Tuttavia dopo un iniziale e ottimistico entusiasmo, il

compito di insegnare le lingue ai computer si dimostrò tanto complesso da far abbandonare il miraggio di un

traduttore automatico. Ma le ricerche sulla elaborazione del linguaggio naturale (natural language

processing) proseguirono egualmente, e ancora oggi costituiscono uno dei settori di punta dell’intelligenza

artificiale, oltre ad essere divenuti oggetto di una ulteriore disciplina che si chiama linguistica

computazionale.

Le grammatiche di Chomsky e l’analisi automatica del linguaggio naturale

L’elaborazione automatica del linguaggio naturale prende le mosse dalla teoria linguistica di Noam

Chomsky, una delle personalità scientifiche più rilevanti del nostro secolo..

Secondo Chomsky la capacità che ogni essere umano ha di capire e produrre frasi e discorsi nella sua

lingua è dovuta ad un insieme di conoscenze presenti nella sua mente: definiamo questo insieme di

conoscenze implicite competenza linguistica. È evidente che tale competenza è almeno in parte

inconsapevole: infatti la maggior parte delle persone sono in grado di produrre e capire le frasi corrette, così

come di individuare immediatamente gli usi scorretti della loro lingua, pur senza sapere il modo in cui questo

avviene. Inoltre, sostiene Chomsky, la maggior parte di questa competenza deve essere innata: non si

spiegherebbe altrimenti la velocità con cui un bambino in pochi anni riesca a parlare una lingua in modo

sostanzialmente corretto semplicemente imitando chi lo circonda.

La competenza linguistica, a sua volta, si suddivide in tre componenti: competenza fonologica,

competenza sintattica e competenza semantica. La prima riguarda la capacità di un parlante di produrre e

capire i suoni della lingua parlata; la seconda riguarda la capacità produrre o riconoscere frasi

grammaticalmente corrette; la terza riguarda la capacità di assegnare o di estrarre significato dalle frasi.

Tutte queste capacità derivano dalla presenza nelle mente di un insieme di regole ben precise, che sono

simili alle regole di un sistema formale.

Appare evidente che un programma non avrebbe difficoltà ad usare regole come queste per generare

frasi. E simmetricamente un programma potrebbe, data una frase, analizzarla al fine di ricostruire la sua

struttura e verificare se essa è tra quelle ammesse dalla grammatica: questi programmi si chiamano parser

,


ACQUISTATO

12 volte

PAGINE

21

PESO

140.36 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Riassunto per l'esame di Teoria e tecnica della comunicazione, basato su appunti personali e studio autonomo del testo consigliato dal docente "Il mondo digitale" di Ciotti e Roncaglia . Nello specifico gli argomenti trattati sono: dal computer alle reti, dal cyberspazio all'arte elettronica e agli ipertesti, dalla realtà virtuale all'intelligenza artificiale, dalla televisione all'uso delle nuove tecnologie nella didattica, ai risvolti sociali, economici e politici della rivoluzione digitale.


DETTAGLI
Corso di laurea: Corso di laurea magistrale in gestione e valorizzazione della documentazione scritta e multimediale
SSD:
Università: Tuscia - Unitus
A.A.: 2009-2010

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher trick-master di informazioni apprese con la frequenza delle lezioni di Teoria e tecnica comunicazione e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Tuscia - Unitus o del prof Sbordoni Chiara.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!