Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Le ontologie

Si passa dal thesaurus all'ontologia quando il sistema terminologico (la specificazione del

significato dei termini e dei loro rapporti) fornisca un vero modello concettuale, che indica

quali sono le classi di entità rilevanti, quali classi sono incluse in classi più ampie, quali

sono le condizioni di appartenenza a una classe, e le relazioni tra le diverse classi.

La disponibilità di un'ontologia formale (i cui contenuti siano definiti con precisione logica,

e quindi siano elaborabili informaticamente) consente di raffinare ulteriormente la ricerca

documentale.

Un'ontologia formale può essere usata anche per far "ragionare" sistemi informatici.

La relazione di inclusione tra classi (che esiste quando tutti gli elementi della classe più

ristretta appartengono anche alla classe più ampia) è la più importante tra le relazioni

ontologiche.

Nella costruzione di un'ontologia è spesso necessario distinguere diversi significati di un

termine, e definire le relazioni concettuali con precisione.

Tipi di ontologie

Secondo l'ampiezza dell'ambito di riferimento:

Ontologie fondazionali (foundational ontology): si occupano dei concetti più astratti

• Ontologie di dominio (domain ontology): si occupano di particolari ambiti della

• conoscenza

Ontologie di nocciolo di un dominio: si limitano a rappresentare i concetti più

• importanti e all'interno di un particolare ambito.

Alle ontologie che approfondiscono l'analisi della struttura logica dei concetti, e che si

propongono di fornire strumenti rigorosi per la migliore comprensione e categorizzazione

della realtà si contrappongono le antologie leggere o linguistiche, che mirano a

rappresentare concetti espressi dai termini del lessico corrente, e le connessioni tra

concetti.

La crittografia e l'informatica

Vi sono casi in cui siamo interessati a limitare la conoscibilità di certe informazioni:

- vogliamo mantenere riservati certi messaggi, escludendo i terzi dalla loro conoscenza;

- vogliamo mantenere per l'autenticità o integrità dei testi elettronici che inviamo o che ci

pervengono.

Esistono tecnologie informatiche per far fronte a tali esigenze: la più importante è la

crittografia. Cenni sulla crittografia

La crittografia è la disciplina che si occupa della cifrazione e decifrazione dei testi. Le

tecniche crittografiche consentono cioè di trasformare un testo leggibile (testo in chiaro) in

un testo non più comprensibile al lettore (testo cifrato) e di risalire dal testo cifrato al testo

in chiaro.

La crittografia esiste da tantissimi secoli ma è stata facilitata grazie all'invenzione di

algoritmi per la cifrazione/decifrazione.

Fondamentalmente si distinguono due tipi di sistemi crittografici:

I sistemi a chiave simmetrica: usano la stessa chiave sia per la cifrazione sia per la

• decifrazione del messaggio; chi è in grado di compiere una delle operazioni è

necessariamente in grado di compiere anche l'altra operazione. 32

I sistemi a chiave asimmetrica: usano due diverse chiavi, tra loro complementari, per

• effettuare con una la cifrazione e con l'altra la decifrazione; le funzioni di cifrazione e

decifrazione sono indipendenti: chi conosce solo una delle due chiavi non può svolgere

entrambe le funzioni con riferimento allo stesso messaggio. La crittografia asimmetrica

consente di realizzare i sistemi a chiave pubblica, nei quali ciascuno dei soggetti che si

scambiano informazioni ha la titolarità di una diversa coppia di chiavi. Una chiave della

coppia, la chiave privata, rimane segreta, conosciuta solo dal titolare, l'altra chiave della

copia, la chiave pubblica, è resa pubblicamente accessibile, conoscibile a tutti coloro che

intendono comunicare con il titolare.

Crittografia per la riservatezza

Le tecniche crittografiche possono essere usate per l'invio di messaggi segreti. Anche se il

messaggio viene intercettato esso non potrà essere letto se non se ne conosce la chiave

di decifrazione.

Oggi sono accessibili a tutti potenti sistemi crittografici, il che consente a chi lo desideri di

ottenere la desiderata riservatezza, ma rende problematiche alcune indagini di polizia.

I sistemi a chiave asimmetrica offrono maggiori garanzie di sicurezza rispetto sistemi a

chiave simmetrica perché nei sistemi a chiave asimmetrica, il destinatario del messaggio

rende nota una delle sue chiavi e invita il mittente a usarla nell'invio del messaggio rivolto

al destinatario. Anche se il terzo riesce a intercettare un messaggio diretto al destinatario

non potrà decifrarlo: a tal fine è necessaria la chiave privata del destinatario, che è stata

mantenuta segreta, non essendo stata comunicata a nessuno.

Internet

Internet, la rete globale

Le dimensioni di Internet

Quando utilizziamo la parola Internet facciamo riferimento a diversi elementi di una realtà

complessa, articolata su diversi livelli:

I collegamenti tra calcolatori.

• Le macchine che governano il viaggio dell'informazione su tali linee di collegamento.

• Le regole che stabiliscono come devono essere formati di dati destinati a viaggiare sulla

• rete, e come i sistemi della rete debbano interagire.

I software di rete.

• I calcolatori connessi in rete.

• Entità virtuali esistenti sulla rete.

• Le persone e le organizzazioni che usano calcolatori della rete.

• Istituzioni che si occupano della gestione e dello sviluppo di Internet.

• Internet, rete globale e pervasiva

Internet è globale: non si limita all'assorbimento passivo delle informazioni; ogni nodo

• della rete può essere non solo fruitore, ma anche fornitore di informazione.

Internet è fattore di globalizzazione.

• Internet è pervasiva: riguarda ogni settore dell'attività umana.

L'evoluzione di Internet

Le origini: la rete ARPANet

In alcune ricerche degli anni '60 cominciò ad emergere l'idea del collegamento di

calcolatori in rete. 33

Nel 1962 Licklider elaborò il concetto di una Rete Galattica, attraverso la quale chiunque

potesse accedere a dati o programmi collocati in qualsiasi parte del mondo.

ARPA, un ente afferente al Dipartimento della Difesa degli Stati Uniti, che sviluppava

tecnologie di interesse militare, riprese le idee di Licklider dando vita ad ARPANet, la rete

progenitrice di Internet. Tale rete collegò in un primo luogo quattro università americane e

poi si estese ad altre e anche a dei centri di ricerca.

Oltre alle idee di Licklider c'era l'esigenza di ampliare l'accesso ai pochi calcolatori allora

esistenti, e di ottimizzare l'uso delle scarse risorse informatiche.

La commutazione a pacchetti

L'ordinaria rete telefonica utilizzata la tecnica della commutazione di linea: una linea

telefonica rimane a disposizione della sola comunicazione tra i due telefoni collegati, per

tutta la durata della chiamata.

ARPANet adottava la tecnica della commutazione a pacchetti che consente invece di

utilizzare una linea per più comunicazioni contemporanee. Questo risultato si ottiene

suddividendo ogni messaggio in pacchetti, unità di lunghezza fissa, che contengono oltre

che a una porzione del messaggio, le indicazioni necessarie per indirizzare il pacchetto a

destinazione. Queste indicazione sono di regola contenute in intestazioni che formano la

prima parte del pacchetto. I pacchetti che viaggiano in Internet vengono chiamati

datagrammi. Quando tutti i pacchetti sono giunti a destinazione, il messaggio è

ricomposto, riunendo pacchetti nell'ordine appropriato.

Affinché le indicazioni possano essere decifrate automaticamente nel punto di arrivo, è

necessario che si siano specificate secondo regole comuni che devono costituire un

protocollo condiviso.

Il collegamento delle reti: i protocolli TCP-IP e la neutralità della rete

Nei primi anni '70 furono definiti i protocolli fondamentali di Internet, chiamati

collettivamente TCP-IP:

TCP: regola lo scambio dei pacchetti

• IP: riguarda l'indirizzamento dei pacchetti nella rete.

L'idea fondamentale è quella di ridurre al minimo le operazioni che deve compiere una

rete affidando tutte le attività importanti ai punti terminali della rete stessa: le

apparecchiature che governano il traffico della rete si limitano a far avanzare i pacchetti

verso loro destinazione. In questo modo la funzione delle apparecchiature della rete viene

semplificata, e la rete acquisterà maggiore efficienza.

I protocolli TCP-IP definiscono un'infrastruttura computazionale dove ogni messaggio può

viaggiare da ogni nodo a ogni altro nodo, senza controlli intermedi. Ogni messaggio è

suddiviso in pacchetti di bit; ognuno di questi pacchetti è racchiuso in una busta digitale

che riporta tutte le informazioni necessarie per trasmettere il pacchetto alla sua

destinazione. I pacchetti viaggiano spostandosi di nodo in nodo; la trasmissione di un

pacchetto da un nodo successivo è compiuta calcolatori, chiamati gateway o router, i quali

si limitano a ricevere il pacchetto inviato dal nodo, e a inviarlo in avanti, racchiuso nella

propria busta digitale. Solo quando i pacchetti giungono al calcolatore di destinazione, le

buste digitali sono aperte, e pacchetti sono riuniti e controllati.

Questa adiaforia o differenza rispetto ai contenuti veicolati costituisce la neutralità della

rete, che rappresenta un'importante garanzia d'innovazione decentrata. La neutralità

comporta l'assenza di discriminazioni rispetto al contenuto del messaggio veicolato e

rispetto alla natura del mittente.

Recentemente alcune voci hanno affermato la necessità di superare la neutralità della

rete, offrendo prestazioni migliori a pagamento: con ciò si otterrebbe una nuova situazione

34

nella quale alcuni potrebbero ottenere un servizio migliore, senza che peggiori il servizio

offerto agli altri.

Altre voci sono contrarie all'abbandono della neutralità della rete, poiche si teme che ciò

comporterebbe gravi pericoli per lo sviluppo di Internet e dell'economia della rete: un

peggioramento del servizio per chi non può pagare il prezzo richiesto; si potrebbe mettere

a rischio la creatività di Internet; si potrebbe mettere a rischio libertà di espressione e la

democrazia su Internet. La nascita della rete delle reti

I messaggi che viaggiano all'interno di una rete, una volta uniformati al protocollo TCP-IP

possono essere trasmessi ad altre reti. Emerge così la possibilità di formare una rete di

reti che non aspira a eliminare o a sostituire le altre reti, ma ad accoglierle al suo interno, e

anzi a emergere dal loro collegamento.

Negli anni '80 negli Stati Uniti si svilupparono numerose reti conformi al protocollo TCP-IP,

tra cui la rete NSFNET. Alle reti statunitensi si affiancarono reti TCP-IP realizzate in altri

paesi, collegate poi a quelle statunitensi.

Una tappa importante fu la creazione di una connessione ad altissima velocità, afferente a

NSFNET, a cui si potevano collegare le reti esistenti. Internet venne ad assumere

progressivamente l'attuale configurazione a più livelli, nella quale reti locali sono connesse

a reti di ampie dimensioni, le quali sono connesse alle grandi infrastrutture, dette dorsali,

per i collegamenti intercontinentali.

In rete locale, alcuni calcolatori, detti server si assumono il compito di offrire certe

prestazioni agli altri calcolatori della rete, che diventano loro client. I calcolatori della rete

locale possono però diventare client anche di calcolatori esterni alla rete, collegandosi ad

essi tramite Internet.

All'interno della rete locale i calcolatori possono continuare a utilizzare un protocollo

diverso dal TCP-IP, anche se molte reti locali lo usano. Di conseguenza le reti locali

diventano delle piccole Internet, chiamate Intranet, il cui uso è riservato agli utenti della

rete locale. Gli strati di Internet e la pila (strack) dei protocolli

Si possono distinguere cinque strati nell'architettura di Internet:

Strato dell'applicazione (application layer)

• Strato del trasporto (transport layer), uno degli strati più importanti, definito dal protocollo

• TCP

Strato della rete (network layer), uno degli strati più importanti, definito dal protocollo IP

• Strato del collegamento dati (data link layer)

• Strato fisico (physical layer)

In conformità ai diversi protocolli che caratterizzano ciascuno stato, specifiche informazioni

sono aggiunte ai pacchetti, quale parte iniziale o finale, le informazioni attinenti agli strati

inferiori trovandosi in posizioni più esterne. Il pacchetto giunto tramite Internet al nostro

calcolatore può essere quindi paragonato ad una lettera imbustata più volte.

Secondo questo modello che prende il nome di incapsulamento ogni busta racchiude la

busta dello strato superiore, e può essere trattata prescindendo da proprio contenuto.

L'incapsulamentp fa sì che gli strati inferiori siano indipendenti dalle funzionalità realizzate

ai livelli superiori. Le culture di Internet

Secondo Castells hanno contribuito a formare la rete quattro principali culture:

La cultura tecnico-meritocratica: caratterizzata dai valori della scoperta tecnologica,

• della competenza, e della condivisione della conoscenza; 35

La cultura hacker: unisce ai valori tecnico-meritocratici gli aspetti della creatività e della

• cooperazione;

La cultura virtual-comunitaria: caratterizzata dai valori della libertà di comunicazione,

• associazione e autorganizzazione.

La cultura imprenditoriale: basata sui valori del denaro, del lavoro e del consumo.

Quando Internet era usata da poche persone le componenti tecno-meritocratica e hacker

erano le principali ispiratrici della rete. Nasce così l'etica hacker che si intreccia con il

modello dello sviluppo del software a sorgente aperta.

In genere vengono considerati hacker quelli che si introducono nei sistemi informatici altrui

contro la volontà del titolare del sistema. La cultura hacker rifiuta questa concezione,

identificando l'hacker in chi si rapporta in modo libertario, creativo e inventivo

all'informatica.

Negli anni successivi crebbero nuove comunità virtuali che potevano condividere idee e

coltivare medesimi interessi. Si parla così di individualismo collegato in rete.

Le attività commerciali hanno caratterizzato maggiormente lo spirito di Internet negli ultimi

anni in un duplice senso:

Da un lato Internet ha rivoluzionato molte attività produttive e commerciali, consentendo

• l'articolazione su scala globale, e modificando e profondamente lo svolgimento.

Da un altro lato le attività economiche hanno modificato profondamente Internet, che si è

• arricchita di spazi dedicati ad attività commerciali, caratterizzati da nuovi prodotti e nuove

tecniche di commercio.

Gli standard e il governo della rete

La rete e gli standard

Definizione di standard: "uno standard di Internet è una specificazione che è stabile, è ben

compresa, è tecnicamente competente, ha implementazioni multiple, indipendenti e

interoperabili con esperienze operative sostanziali, gode di un sostegno pubblico

significativo, è riconoscibilmente utile in alcune o tutte le parti di Internet".

Uno standard di Internet può riguardare i più diversi aspetti e il suo processo di formazione

si sviluppa per fasi successive:

Fase preparatoria: si sviluppa in diversi stadi in cui compaiono versioni dello standard

• sempre più avanzate e perfezionate. I documenti che contengono le diverse versioni

dello standard sono pubblici e si chiamano richieste di commenti.

Adozione da parte dell'ente competente: si tratta di un'edizione volontaria, ma

• comunque necessitata, nel senso che ciascuno ha bisogno di adottare comportamenti

che siano coerenti con i comportamenti e le aspettative altrui per poter partecipare alla

comunicazione e all'interazione. La scelta individuale di seguire un certo standard è

giustificata dal vantaggio che il singolo utente trae dal fatto che lo standard sia

universalmente adottato. N.B. la diffusione dello standard si basa sull'effetto di rete.

Questo meccanismo rende però possibile la contraddizione tra razionalità collettiva (che

richiederebbe che tutti gli utilizzatori adottassero lo standard ottimale) e razionalità

individuale (che esige che ciascuno segua qualsiasi standard egli preveda sia adottato

dagli altri, a prescindere dal suo valore comparativo). L'adozione di uno standard deriva

dalla sua approvazione da parte di comitati di esperti imparziali sulla base della validità

tecnica dello standard stesso. La decisione del comitato rende lo standard adottato

saliente per tutta la comunità di Internet: fino ad oggi il processo di standardizzazione ha

garantito l'allineamento tra qualità dello standard e la sua salienza, fra la razionalità

collettiva e quella individuale. Oggi alcuni ritengono che tale allineamento diventi

progressivamente più difficile a causa della crescita di interessi politici ed economici

implicati nel funzionamento di Internet. 36

Pubblicazione: lo standard è proposto agli sviluppatori di software per Internet.

• Internet tra norme sociali e norme giuridiche

La comunità di Internet ha prodotto oltre agli standard anche norme in senso stretto: si

tratta di credenze condivise che certi modelli di comportamento debbano essere seguiti da

ogni si volò membro della comunità, anche quando il comportamento prescritto sia

contrario all'interesse particolare del singolo. Tali norme sono spesso accompagnate da

sanzioni informali. Questo tipo di normatività si ritrova per esempio nelle regole di etichetta

o netiquette, e nelle regole che disciplinano la cooperazione in progetti non commerciali.

La combinazione di protocolli convenzionali e di regole sociali è stata sufficiente per

governare Internet ai suoi inizi: il diritto allora aveva una funzione marginale.

Tuttavia negli ultimi anni, in seguito alla crescita del l'importanza sociale ed economica di

Internet e alla crescita degli interessi economici, la normatività spontanea di Internet è

stata affiancata da norme giuridiche. Ci si chiede se questa disciplina giuridica sia

opportuna o meno:

I sostenitori di una posizione libertaria o "separatista" sostengono che Internet crei uno

• spazio nuovo virtuale e globale, separato dallo spazio oggetto del potere dei governi.

Alle attività compiute all'interno di Internet non dovrebbero essere applicate norme

giuridiche. Barlow afferma l'autonomia e l'originarietà dell'ordinamento del ciberspazio.

Contro Barlow ci sono richieste di una disciplina giuridica della rete:

1) Provenienti dai governi, interessati a controllare la rete a fini di polizia, a censurare

alcuni tipi di informazioni, a controllare il dissenso politico e sociale.

2) Provenienti dalla comunità degli affari, interessata a facilitazioni per il commercio

elettronico, la protezioni di marchi distintivi e tutela della proprietà intellettuale.

3) Richieste che mirano alla garanzia che Internet rimanga un ambiente nel quale

esercitare in sicurezza diritti civili, sociali e culturali.

Lessig sostiene che in assenza di una disciplina giuridica Internet potrebbe trasformarsi

• da uno spazio di libertà ad uno spazio di controllo totale. L'esigenza sembra proporre un

intervento selettivo del diritto statale, finalizzato a tutelare le libertà dei singoli e altri

valori fondamentali, indirizzando a tali fini la stessa architettura della rete, nei casi e nella

misura in cui l'autogoverno della rete sia insufficiente.

A partire da Lessig distinguiamo:

• chi ritiene chi gli interventi pubblici non siano necessari (posizione libertaria), sarebbe

1) sufficiente il funzionamento libero e pluralistico del mercato.

chi ritiene fisiologico un intervento dello Stato nel governo delle rete a tutela di interessi

2) collettivi.

chi ritiene che la rispondenza del funzionamento della rete alle esigenze e ai diritti dei

3) suoi utilizzatori possa ottenersi perfezionando l'autogoverno rendendolo sensibile ai

valori giuridici. Dagli indirizzi numerici ai nomi di dominio

Secondo i protocolli TCP-IP ogni calcolatore è caratterizzato da un indirizzo IP (un numero

della lunghezza di 4 byte tradotto per facilità in numeri decimali). Ogni calcolatore può

avere un indirizzò IP permanete o temporaneo: ogni comunicazione inviata in rete da un

calcolatore è quindi etichettata con l'indirizzo del calcolatore mittente. Nell'assegnazione

dell'indirizzo IP un numero vale l'altro e al richiedente è assegnato il primo numero libero

disponibile.

Già dall'inizio degli anni '80 si manifesta l'esigenza di usare un diverso sistema di

riferimento, più semplice da memorizzare, costituito dai cosiddetti nomi di dominio. Un

nome di dominio si costruisce combinando più parole separate da punti. Nell'analisi del

nome si parte dalla fine. 37

Un nome di dominio identifica un dominio, cioè un gruppo di indirizzi IP. Per identificare un

particolare calcolatore appartenente a quel dominio, bisogna anteporre al nome di dominio

un'ulteriore specificazione, cioè il nome dell'host che desideriamo contattare.

Aggiungendo al nome di dominio il nome dell'host otteniamo un "nome di dominio

completamente qualificato" che identifica in modo univoco il calcolatore.

Esiste una infrastruttura chiamata sistema dei nomi di dominio o DNS che si occupa di

tradurre i nomi di dominio completamente qualificati in indirizzi IP. Tale infrastruttura consta

di una rete di calcolatori, i server del DSN, che fungono da "elenco telefonico di Internet".

I protocolli delle applicazioni di Internet

Tre protocolli in particolare hanno avuto importanza nella storia di Internet:

Protocollo TELNET: consente di interagire con un calcolatore remoto nello stesso modo

• in cui si opererebbe da un terminale dotato di video e tastiera, collegato al calcolatore

remoto mediante cavo.

Protocollo FTP: consente di scambiare e manipolare file.

• Protocollo SMTP (di solito utilizzato in combinazione con i protocolli POP o IMAP):

• riguarda la posta elettronica, la quale negli ultimi anni ha raggiunto grande diffusione,

dando sviluppo ad importanti funzionalità aggiuntive quali le conferenze virtuali o forum.

L'identificazione nella rete: Web-log e cookie

L'anonimato che crediamo di avere quando navighiamo in Internet è normalmente un

illusione: di solito infatti tutti gli accesso da noi compiuti presso un certo server sono

registrati nel Web-log del servere, il file che riporta la sequenza delle operazioni compiute

dal server. Si è discusso se le informazioni riportate dal Web-log possano considerarsi

dato personale: la risposta è no, dal momento che il Web-log non consente di collegare

immediatamente la descrizione dell'attività al suo autore, ma si limita ad associare a

quell'attività ad un indirizzò IP. Se l'IP è statico basterà trovare il calcolatore dotato di

quell'IP, se è dinamico bisognerà prima rivolgersi al fornitore di accesso. Questa procedura

viene seguita in particolare nella repressione dei reati informatici.

Le registrazioni nel Web-log non sono tuttavia sufficienti per identificare un determinato

calcolatore: per personalizzare la comunicazione con l'utente, rendendola più semplice ed

efficace, molti siti commerciali utilizzano gli HTTP cookie (cookie per il Web), cioè un

insieme di dati inviati dal sito e memorizzati dal browser in un file che risiede sul

calcolatore dell'utente. Quando un calcolatore si collega per la prima volta ad un certo sito,

il sito gli invia un cookie, caratterizzato da un proprio identificatore univoco. Ogni qualvolta

il calcolatore si ricollega a quel sito, il cookie precedentemente inviato viene rispedito al

sito: il sito quindi sa che il nuovo accesso è compiuto dal calcolatore a cui aveva spedito

quel cookie.

I cookie sono semplici dati, non sono virus e non possono danneggiare il computer. Sono

però problematici per quanto riguarda la privacy dal momento che il cookie consente al

sito unire tutti gli accessi compiuti con un certo calcolatore e quindi di ricostruire la storia

delle attività compiute dal possessore del calcolatore. Particolarmente pericolosi per la

privacy sono i cosiddetti cookie provenienti da terzi, inviati non dal dal server cui

afferisce la pagina cui siamo collegati, ma dai server in cui si trovano elementi (pubblicità

ad esempio) visualizzati in tale pagina.

I browser normalmente consentono all'utilizzatore di scegliere come rapportarsi al cookie:

è possibile respingere tutti i cookie o solo quelli di terzi, cancellarle tutti quelli che abbiamo

ricevuto o solo alcuni di essi. Inoltre tale facoltà è tutelata dal codice della privacy all'art.

122.

Si sono recentemente diffusi nuovi tipi di dati in grado di tracciare il comportamento on-

line. Quelli che hanno creato più problemi sono i Flash cookie, inseriti nel calcolatore 38

dell'utente dal software Adobe Flash player. A differenza degli HTTP cookie, i Flash cookie

non sono gestiti mediante il browser quindi siti malevoli possono utilizzarli per continuare a

tracciare il comportamento dell'utente anche dopo che questi abbia eliminato un cookie

mediante un proprio browser.

La ragnatela globale (World-Wide Web - WWW)

A cambiare radicalmente l'uso di Internet fu la creazione del World-Wide Web, un nuovo

modello di sistema informatico, predisposto da Berners-Lee, ricercatore della CERN.

Il Web non è un software, ma un enorme insieme di documenti, unificati dagli standard

usati per la loro identificazione, creazione, consultazione. Questo standard sono tre:

URL: identificatore per gli oggetti del Web, che designa in modo univoco tali oggetti,

• specificando come essi possono essere automaticamente individuati e richiamati. Gli

URL sono un sottoinsieme degli URI, identificatori univoci che designano gli oggetti

presenti in rete.

HTML: linguaggio per predisporre documenti ipertestuali

• HTTP: protocollo che disciplina l'interazione tra client, che richiede pagine Web, e

• server, che le fornisce.

Grazie a questi standard sono stati costruiti gli strumenti software per la consultazione e lo

sviluppo del Web: in particolare, i browser consentono di spostarsi dall'una all'altra pagina

Web medianti i link.

Il Web si ispira al modello di ipertesto, un sistema informatico che consente all'utente di

visualizzare documenti e di spostarsi automaticamente dal documento visualizzato ad altri

documenti a esso collegati, seguendo collegamenti di diverso tipo. Nella progettazione del

Web Berners-Lee si ispirò ai principi di semplicità e neutralità: chi crea una pagina Web

è libero di inserirci qualsiasi contenuto e di inserire qualsiasi link a qualsiasi pagina Web di

qualsiasi sito, e gli standard del Web sono indipendenti da ogni particolare hardware o

software. Il governo (governance) di Internet

Oggi non esiste un soggetto in particolare che possa qualificare si come proprietario unico

o principale di Internet, nè alcun potere politico la cui autorità si estenda all'intera rete: la

proprietà delle infrastrutture della rete è ripartita tra numerosi enti, pubblici e privati, e la

rete si estende ormai a tutte le nazioni del mondo. Conseguentemente, il governo di

Internet si è separato sia dalla proprietà delle infrastrutture di rete, sia dal controllo delle

autorità politiche nazionali, ed è stato affidato a diversi organismi, formati si nel corso degli

anni per rispondere a diverse esigenze attinenti allo sviluppo e al funzionamento di

Internet.

Le strutture per il governo di Internet possono suddividerai in due gruppi:

Istituzioni finalizzate prevalentemente allo sviluppo tecnologico e, in particolare, alla

• definizione e al perfezionamento degli standard

Istituzioni finalizzate prevalentemente alla gestione e, in particolare, all'assegnazione di

• indirizzi e nomi.

Le istituzioni di Internet: sviluppo tecnologico e standard

Lo sviluppo delle tecnologie di Internet fa capo a ISOC, la cui partecipazione è aperta a

tutte le persone interessate a contribuire. Le scelte, invece, sono affidate a organi collegiali

prevalentemente tecnocratici.

A ISOC afferisce l'organizzazione più importante per quanto riguarda la definizione degli

standard: IETF. Questa organizzazione comprende numerosi gruppi di lavoro che si

occupano dei diversi standard di Internet. La partecipazione ai gruppi è aperta e l'attività 39

dei gruppi di lavoro è sovrintesa da IESG. Alla definizione degli standard partecipa anche

IAB.

Negli ultimi anni nel campo della standardizzazione ha assunto importanza W3C, che ha

una struttura associativa e personalità giuridica: questo organismo sviluppa standard per il

World-Wide Web e mira a realizzare un unico Web, esteso al mondo intero.

Le istituzioni di Internet: l'assegnazione di nomi e indirizzi

Il funzionamento di Internet richiede la disponibilità di identificatori univoci, sia indirizzi

numerici, sia nomi di dominio. Il coordinamento delle funzioni riguardanti l'assegnazione di

tali identificatori è affidato a ICANN, le cui attività sono de decentrate.

Per quanto riguarda i nomi di dominio, l'assegnazione dei nomi generici è stata delegata

alla società Network Solutions Inc. (NSI), mentre i nomi con suffisso di nazione (ad

esempio it) sono assegnati ad enti situati nelle diverse nazioni interessate, chiamati

naming authority e registration authority. In Italia si occupa di queste funzioni l'IIT-CNR.

Il Web semantico

Il termine fa riferimento all'inserimento nel Web di informazioni comprensibili alla

macchina: il Web si arricchisce di informazioni comprensibili anche al calcolatore.

Nel modello del Web semantico le pagine Web dovrebbero contenere informazioni

comprensibili non solo per l'uomo ma anche per l'elaboratore.

Gli standard del Web semantico

Lo sviluppo del Web semantico è una priorità di W3C. Rappresentiamo il Web semantico

come se fosse una piramide: lo strato più basso della piramide è composto da due

standard

Unicode: indica come rappresentare, mediante un unico numero binario, ogni carattere

• di qualsiasi alfabeto oggi in uso

Uri: indica come denominare in modo non-ambiguo tutte le entità accessibili sul Web

Gli standard del Web semantico attengono agli strati superiori:

XML

• RDF: linguaggio che consente di includere nei documenti enunciati sugli oggetti rilevanti

• e le loro proprietà.

Ontologie: consentono di specificare concetti e relazioni concettuali e di compiere le

• inferenze corrispondenti.

Logica: permette di esprimere informazioni complesse, utilizzabili nei ragionamenti.

• Strato della fiducia: comprende modi per assicurare la riservatezza, l'autenticità,

• l'integrità e l'affidabilità.

Il Web semantico promette di superare i limiti del Web presente, facilitando l'accesso

all'informazione così come l'effettuazione di varie attività mediante Internet. Da un lato i

documenti potranno essere automaticamente adattati ai bisogni dei loro utilizzatori,

dall'altro i documenti potranno includere le informazioni richieste per varie attività che li

riguardano. Il diritto nel Web semantico

Il Web oggi è diventato la principale fonte di cognizione del diritto. Tuttavia l'uso del Web

per conoscere il diritto è complicato dal fatto che i documenti giuridici sono disponibili in

formati diversi, non sempre leggibili con il software presente sul nostro elaboratore, e sono

reperibili solo utilizzando i motori di ricerca, la cui prestazione è scadente per quanto

attiene alla selettività e all'affidabilità. 40

Tradurre il progetto di un unico Web in ambito giuridico significa far sì che ciascuno,

usando qualsiasi tipo di dispositivo, possa ottenere dal Web informazioni giuridiche

affidabili. Al fine di realizzare tali esigenze è iniziato il trasferimento delle tecnologie degli

strati del Web semantico, dando luogo ad una piramide che comprende i seguenti livelli:

Standard condivisi per l'identificazione delle risorse giuridiche, grazie ai quali ogni atto

• giuridico, prodotto da qualsiasi autorità, possa essere univocamente identificato;

Standard per la strutturazione dei documenti giuridici, secondo definizioni specificate in

• XML;

Standard, basati su RTF, per associare ai documenti giuridici asserzioni di vario genere;

• Ontologie giuridiche;

• Linguaggi per la presentazione delle norme giuridiche in forma logica;

• Metodi per assicurare l'affidabilità dell'informazione giuridica e la sua conservazione.

Il Web 2.0 o Web riscrivibile

Tale espressione fa riferimento al crescente coinvolgimento degli utenti del Web nella

creazione del Web stesso e alle infrastrutture informatiche che consentono tale

partecipazione.

Nell'era del Web riscrivibile, Internet non è più solo l'infrastruttura mediante la quale si può

accedere alla conoscenza, comunicare, svolgere attività economiche e amministrative,

essa è anche il luogo nel quale le persone possono esprimersi, costruire le proprie

immagini pubbliche, interagire con amici e conoscenti, impegnarsi nella produzione di

conoscenza, partecipare alla cultura e contribuire al dibattito sociale e politico. Ciò si

realizza mediante diverse infrastrutture e strumenti software.

I contenuti generati dagli utenti

Il Web 2.0 trova la propria premessa in nuovi strumenti informatici che consentono a tutti

gli utenti del Web di contribuire alla rete:

Sono disponibili migliori strumenti per realizzare creazioni intellettuali;

• Sono disponibili strumenti per trasferire in rete, con estrema facilità e senza costo, i

• contenuti prodotti, rendendoli accessibili a tutti gli utenti della rete;

Sono disponibili strumenti per produrre direttamente in rete i nuovi contenuti,

• collegandoli ai contenuti già disponibili.

La disponibilità di tali strumenti ha fatto sì che le persone interessate a diffondere i risultati

della propria creatività iniziassero a mettere on-line i propri contributi, attivando la spirale

dell'effetto di rete. Ne è risultata una rapidissima crescita della quantità dei contributi

generati dagli utenti.

L'impresa informatica nel Web 2.0: il modello Google

L'innovazione del Web 2.0 consiste nello sfruttare la intelligenza collettiva, cioè nel gestire,

comprendere, e rispondere a enormi quantità di dati prodotti dagli utenti. In seguito a tale

modifica nuovi tipi di impresa e nuovi modelli giuridici si aggiungono ai precedenti e

acquistano un'importanza crescente.

Negli anni '60 e '70 l'impresa tipica era IBM, negli anni '80 e '90 era Microsoft, l'impresa

tipica del Web 2.0 è Google, fondata da Larry Page e Sergey Brin, non offre nè

apparecchiature nè prodotti software, ma servizi. Google ha ottenuto successo grazie

all'omonimo motore di ricerca, affiancato da altri servizi come youtube, G-Mail, Google-

Maps, ecc. Tali servizi sono forniti gratuitamente all'utilizzatore.

Non fornendo software, Google non ha bisogno di adottare misure tecniche o giuridiche

atte a prevenire duplicazioni indesiderate: il software risiede nei server di Google, dove

risiedono anche i dati di cui quel software si avvale. Gli utenti sono coinvolti in diverso

modo nelle attività di Google. Google estrae dalla rete le informazioni che le sono 41

necessarie per far funzionare il proprio motore di ricerca: indicizza le pagine Web

associando i termini contenuti in ogni parola all'indirizzo di rete di tale pagina, e determina

la rilevanza dei risultati delle ricerche, sulla base della struttura del Web e dalle precedenti

attività degli utenti.

Google non si limita ad usare il Web per creare i propri indici e compiere le proprie

ricerche: essa ne estrae ulteriori informazioni che le consentono di offrire altri servizi.

I proventi di Google derivano essenzialmente dalla pubblicità, mediante il meccanismo

degli AdWords: agli utenti che compiano una ricerca su Internet utilizzando Google sono

fornite due liste di risultati. Sul lato sinistro dello schermo sono forniti i risultati "naturali"

della ricerca, sul lato destro invece vengono mostrati link di natura pubblicitaria, che

rinviano a messaggi commerciali o a siti di venditori on-line.

Questi risultati si spiegano considerando che gli inserzionisti interessati ad una pubblicità

mirata possono acquistare parole per la pubblicità (AdWords) da Google. Un inserzionista

può cioè indicare le parole il cui utilizzo nella ricerca attiverà la visualizzazione del proprio

link pubblicitario e l'ammontare che egli è disposto a pagare quando un utente clicchi su

quel link. Le raccolte di contenuti on-line

La pubblicazione dei contenuti è un'operazione facile, rapida e gratuita, alla portata anche

per gli utenti più inesperti.

Esistono numero piattaforme per la condivisione di diversi tipi di contenuti, ma qui ci

limitiamo ad esaminare:

SSRN: Raccoglie contributi scientifici. Una volta registratosi presso il sito, l'autore può

• pubblicare on-line i propri contributi, rendendoli accessibili a tutti. L'autore può limitarsi a

inserire sul sito il sommario del proprio contributo, ma di solito mette on-line il testo

completo, prima di pubblicare la versione definitiva su una rivista scientifica. In questo

modo, l'autore può ottenere da altri utenti di SSRN indicazioni e commenti utili per

completare l'articolo e modificarlo se ci sono eventuali effetti.

YouTube: È il più popolare tra i siti per la condivisione di filmati e tracce musicali on-line.

• Creato nel 2005, conobbe una rapidissima popolarità, e fu acquisito da Google nel 2006.

Tutti possono accedere ai filmati su YouTube, mentre chi si registri presso il sito può

caricare un numero illimitato di filmati. Di regola i filmati non possono essere scaricati ma

possono essere visualizzati solo all'interno della piattaforma. Gli utenti possono inserire

commenti su di esso, ed esprimere le proprie valutazioni. Inoltre possono segnalare

video sconvenienti o illegali, sollecitandone la rimozione. Le raccolte di materiale on-line

hanno condotto a problemi giuridici, attinenti in particolare al diritto d'autore e alla

protezione dei dati. Altri problemi giuridici sono sorti in merito alla distribuzione di

contenuti illeciti. Le reti sociali

Un sito di rete sociale o social network site può essere definito come un servizio basato

sul Web che consente agli individui di:

Costruirsi un profilo pubblico o semipubblico all'interno di un sistema circoscritto: questa

• funzione individua l'aspetto dell'identità. Gi utenti della rete creano profili che li

rappresentano, grazie alla combinazione di informazioni personali di vario genere.

Specificare una lista di altri utenti con i quali essi condividono una connessione: la

• condivisione elle connessione individua l'aspetto relazionale. Attraverso il sito si

mantengono e si sviluppano contatti con altre persone.

Esaminare e attraversare la propria lista di connessioni e le liste fatte da altri all'interno

• del sistema: l'attraversamento della rete delle connessioni individua l'aspetto della 42

comunità. gli utenti della rete sociale possono identificare la forma della loro comunità e

in particolare il ruolo che essi hanno al suo interno.

Oggi la rete maggiormente diffuso su scala globale è Facebook: ebbe origine nel 2005 ad

Harvard, in cui esisteva la consuetudine di distribuire ai nuovi studenti, per facilitare la

conoscenza reciproca, un volume che riportava le foto di tutti i nuovi iscritti. Mark

Zuckerberg, studente di informatica, ebbe l'idea di informatizzare il volume e renderlo

user-generated (prodotto dagli utenti): gli studenti avrebbero fornito la propria foto e le

informazioni con le quali presentarsi ai colleghi. Con la collaborazione di alcuni compagni

realizzò un sito che svolgesse questa funzione e lo mise a disposizione degli studenti di

Harvard. Il successo fu rapidissimo e il sito si estese ad altre università e poi fu aperto alla

generalità degli utenti. Oggi è usato da circa 500 milioni di persone.

La funzione fondamentale di Facebook è quella di definire il proprio profilo, condividere

connessioni e partecipare a una comunità. Il sito consente a ciascuno di decidere con chi

condividere i dati nel proprio profilo, consentendone l'accesso. Esso richiede l'accordo

delle parti per la loro partecipazione a una nuova connessione.

Facebook si è evoluto molto velocemente e si è dotato di funzioni e applicazioni

aggiuntive, come un'applicazione per la messaggistica, una bacheca (wall), la possibilità di

inserire degli status e aggiungere foto e album fotografici. È disponibile un ambiente di

sviluppo (Platform) in cui vengono realizzate applicazioni destinate a Facebook.

Si può dire che Facebook realizzi nel modo più pieno il diritto alla privacy sull'informazione,

inteso come diritto all'autodeterminazione informativa, che consta di un lato negativo

(diritto a non condividere i propri dati) e di un lato positivo (diritto a condividere i propri dati

con chi si desidera e nelle forme che si desiderano).

Tuttavia rimane irrisolto il conflitto tra privacy individuale e dinamiche comunicative nelle

reti sociali: una volta che qualcuno abbia aperto il proprio profilo ad altri, diventa difficile

controllare l'utilizzo che questi facciano delle informazioni cui hanno avuto accesso. La

disciplina delle reti sociali richiede quindi un difficile bilanciamento tra le esigenze e valori

in conflitto, tra privacy da un lato e libertà di informazione, comunicazione ed espressione

dall'altro. I blog

La parola blog, derivante da Web-log, cioè diario di bordo del Web, rappresenta un nuovo

tipo di sito Web diffusosi con estrema rapidità negli ultimi anni, caratterizzato dalla rapidità

di aggiornamento e dall'interattività con i lettori. I blog vengono prodotti grazie a

piattaforme on-line che facilitano la redazione e l'aggiornamento delle pagine Web.

Il termine blog può essere utilizzato in due modi: con riferimento allo strumento utilizzato

per la realizzazione del sito o con riferimento alle funzionalità di cui il sito è dotato. Qui

facciamo riferimento ad entrambe le caratteristiche.

La pratica dei blog ha determinato due fondamentali innovazioni nell'uso della rete:

Accresciuta dinamicità: i blog son di regola dinamici, nuove informazioni sono

• pubblicate di continuo, spesso con frequenza giornaliera o anche più elevata.

Accresciuta interattività: i blog consentono ai lettori di associare commenti alle pagine e

• ai messaggi dell'autore, in modo tale che il blog diventi un luogo di dialogo tra autore e

lettori. L'autore può regolare tale dialogo con vari mezzi, ad es. controllo preventivo sui

messaggi inviati.

L'interattività del blog è potenziata da alcune funzionalità, in particolare dalla tecnologia

dei Web-feed che consente di ricevere automaticamente gli aggiornamenti delle pagine

Web. Un Web-feed è un documento in XML, associato ad una pagina Web, che indica le

modifiche subite dai documenti di tale pagina.

Il blog:

Può avere carattere confidenziale ed essere rivolto ad una cerchia ristretta di soggetti;

• 43

Può avere destinazione più ampia, rivolgendosi a quanti debbano essere aggiornati con

• riferimento a una certa attività;

Può essere rivolto alla generalità degli interessati, più o meno ampia a seconda della

• tematica affrontata o della popolarità dell'autore.

Benché i blog nascano da iniziative particolari, non coordinate tra loro, sono ricchi di

interconnessioni. Il creatore di un blog normalmente inserisce nel blog stesso link che

conducono alle pagine di altri blog che egli ritiene significativi per i propri lettori.

Attraverso l'interconnessione dei singoli blog emerge la cosiddetta blogosfera, cioè la rete

complessa composta dai blog e dalle loro molteplici interconnessioni, nella quale si

possono compiere ricerche utilizzando software specificatamente destinati a questo

scopo. In particolare sta emergendo una blogosfera giuridica, costituita dai blog a

contenuto giuridico. I wiki e Wikipedia

Un wiki è un sito Web che permette la facile creazione e modifica di un numero qualsiasi

di pagine interconnesse mediante un browser Web che usa un linguaggio di marcatura

semplificato o un editore di testi WYSIWYG. Benché un wiki possa essere destinato anche

all'uso individuale, i wiki sono strumenti elettivi per il lavoro cooperativo: sono rivolti alla

creazione di opere comuni, nelle quali il contributo di ciascuno diventa indistinguibile dal

contenuto altrui.

Le pagine dei wiki sono solitamente redatte usando un linguaggio di marcatura più

semplice e limitato dell'HTML. Vengono poi tradotte automaticamente in HTML, e in

questo formato vengono inviate al browser che le visualizzerà ai lettori.

Una funzione essenziale dei wiki è il controllo delle modifiche: è possibile esaminare tutte

le modifiche subite da un testo, individuare con precisione chi ha effettuato la modifica e in

quale tempo; i wiki offrono altresì strumenti per la gestione delle versioni di un testo: è

possibile risalire alla versione del testo precedente a una qualsiasi modifica.

I Wiki sono lo strumento ideale per la collaborazione decentrata di comunità aperte di

autori. Molti Wiki sono aperti al pubblico: qualunque utente registrato può intervenire

modificando il contenuto delle pagine.

Grazie alla tecnologia dei Wiki si è sviluppata la più grande e più letta enciclopedia oggi

esistente: Wikipedia. Wikipedia nacque dal fallimento di Nupedia.

Il progetto di Wikipedia prevedeva che sia la redazione delle voci, sia i controlli fossero

completamente decentrati, affidati alla generalità degli interessati: chiunque poteva

scrivere una nuova voce, chiunque poteva intervenire modificando la voce preesistente. A

tal fine era necessario registrarsi presso il sito di Wikipedia.

Si è osservato che la qualità dei contributi è generalmente elevata, comparabile a quella

delle migliori enciclopedie commerciali. Le motivazioni di tale partecipazione volontaria e

non retribuita sono varie: l'interesse per i temi trattati dalle voci, la volontà di contribuire

alla creazione di un'opera che renda la conoscenza accessibile liberamente e

gratuitamente a tutta l'umanità, ecc.

La produzione paritetica di contenuti

Le esperienze appena ricordate sono solo alcune tra le molte che esemplificano il

fenomeno della produzione paritetica di contenuti informativi. Secondo Benkler si tratta di

un nuovo modello sociale e produttivo che può favorire la produzione, lo sviluppo umano,

e la cooperazione.

Benkler osserva che fino a oggi si riteneva che le attività produttive si potessero

organizzare secondo due modelli, il mercato e l'azienda: nel primo le persone si

scambiano beni o servizi guidate nelle proprie scelte dai prezzi, nel secondo operano

nell'ambito di una struttura gerarchica guidate dai comandi dei superiori. 44

La produzione paritetica costituirebbe una terza via: chi partecipa ai iniziative produttive di

questo tipo non segue né i segnali forniti dei prezzi, né le indicazioni di superiori

gerarchici.

A favore di questo nuovo modo di produzione vi sono importanti ragioni economiche:

la produzione paritetica faciliterebbe l'individuazione delle persone più adatte a svolgere

• un certo compito

questo modello produttivo, essendo basato sulla condivisione e il libero accesso alle

• risorse informative, consente alle persone interessate e competenti nell'usare una certa

risorsa, di farlo senza richiedere il permesso di alcuno.

Poiché le risorse da usare in comune sono beni informativi, il loro utilizzo è non-rivale. La

motivazione per impiegare le proprie energie nello sviluppo di prodotti cui tutti possono

accedere liberamente può venire dalla combinazione di due motivazioni: il guadagno

edonico, cioè il piacere derivante dalla creazione, e l'appropriazione indiretta, cioè i

vantaggi economici che il creatore può trarre in seguito alla libera accessibilità delle

proprie opere.

Non sempre la produzione paritetica può trovare piena applicazione. In molti casi altri

modelli economici possono meglio soddisfare importanti esigenze.

Sembra però che ci si stia avviando verso un'ecologia complessa della produzione

intellettuale, nella quale diversi modelli produttivi sono compresenti e si intersecano in vari

modi, così come si intersecano diversi modelli giuridici.

Condivisione di contenuti e modelli giuridici: le licenze creative commons

Alla facilità della duplicazione e distribuzione delle opere in formato digitale, l'ordinamento

giuridico italiano ha risposto con una più restrittiva disciplina, volta a prevenire usi non

autorizzati delle opere digitali.

In particolare la nostra disciplina sul diritto d'autore stabilisce una durata molto lunga per i

diritti di sfruttamento economico, cioè settant'anni dalla morte dell'autore, e prevede inoltre

utilizzazioni libere ristrette, sanzioni per l'uso non autorizzato dei contenuti protetti. Tra le

sanzioni ricordiamo in particolare:

Una sanzione amministrativa per il download, cioè chi scarica illegittimamente;

• Una sanzione penale pecuniaria per l'upload senza fini di lucro, chi illegittimamente

• distribuisce in rete contenuti protetti, a qualsiasi scopo e in qualsiasi forma;

Una sanzione penale più pesante per l'upload a fini di lucro, cioè chi illegittimamente

• distribuisce in rete contenuti protetti per trarne un guadagno.

A queste sanzioni penali e amministrative si aggiunge l'obbligo di risarcire il danno subito

dal titolare dei diritti in seguito agli usi non autorizzati.

Sì sono però diffuse numerose opinioni che hanno rilevato come una disciplina

eccessivamente restrittiva sia scarsamente applicabile e inoltre possa favorire gli oligopoli

esistenti, limitare l'accesso ai contenuti culturali e impedire le attività creative.

Sono nate così le licenze creative commons, un modello che nasce nell'ordinamento

statunitense: si tratta di un sistema di licenze semplice e flessibile, che consente all'autore

interessato a rendere liberamente accessibili le proprie opere e di specificare a quali

esclusive egli intenda rinunciare. In tutte le licenze creative commons l'autore autorizza

tutti a riprodurre e distribuire l'opera per fini non commerciali e richiede che ogni copia

dell'opera rechi il suo nome. Inoltre l'autore può rinunciare ad altre esclusive che ci

permettono di distinguere sei possibili licenze creative commons, caratterizzate ciascuna

dalle attività da essa consentite:

Solo riproduzione e distribuzione, solo per fini non commerciali;

• Solo riproduzione e distribuzione, a fini commerciali e non commerciali;

• Riproduzione, distribuzione, e modifica, solo per fini non commerciali, con copyleft o

• "condividi allo stesso modo"; 45

Riproduzione, distribuzione, e modifica, a fini commerciali e non commerciali con

• copyleft;

Riproduzione, distribuzione, e modifica a fini non commerciali, senza copyleft;

• Riproduzione, distribuzione, e modifica, a fini commerciali e non commerciali, senza

• copyleft.

Le licenze Creative Commons non sono un modello utilizzabile in ogni occasione: può

essere inadatto per gli autori che traggono il proprio sostentamento dalla

commercializzazione delle proprie opere. Questo modello è frequentemente utilizzato per i

contributi scientifici.

Internet entra nella realtà fisica: servizi di localizzazione, realtà aumentata, Internet

delle cose, intelligenza ambientale

L'interazione automatica tra calcolatore e ambiente acquista una nuova dimensione

nell'era presente, grazie all'unione di due fattori: l'inserimento di calcolatori dotati di sensori

in dispositivi di ogni genere e il collegamento di quei dispositivi a Internet.

L'interazione oggi più diffusa tra strumenti informatici e realtà si attua nei servizi basati

sulla localizzazione. Se i calcolatori forniti di un sistema di localizzazione sono collegati a

Internet, diventa possibile offrire ai loro possessori un insieme di indicazioni e servizi

collegati alla posizione, servizi che fanno uso di informazioni disponibili su Internet.

Si parla di realtà aumentata per indicare la versione della realtà ottenuta combinando la

raffigurazione di un oggetto tratto dalla realtà con elementi tratti dall'ombra informativa

(informazioni relative a quell'oggetto che troviamo su Internet) associata a quell'oggetto su

Internet. Sistemi analoghi potrebbero essere utilizzati anche per le persone, grazie allo

sviluppo dei sistemi per il riconoscimento facciale.

Il termine Internet delle cose indica lo sviluppo di Internet conseguente alla connessione

in rete degli oggetti materiali. Tutti gli oggetti potrebbero essere dotati di identificatori

univoci e di minuscole etichette radio, capaci di trasmettere un segnale che indica l'identità

dell'oggetto. In questo modo sarebbe possibile identificare qualsiasi oggetto, e utilizzare

questa possibilità per facilitare gli scambi, i trasporti, l'uso dell'oggetto, ecc.

Dotando le cose non solo della capacità di inviare messaggi, ma anche della capacità di

compiere elaborazioni complesse si giunge all'intelligenza ambientale, cioè ad ambienti

nei quali esistono numerosi dispositivi intelligenti, incorporati nelle abitazioni e negli oggetti

di uso, in grado di comunicare e interagire con le persone, adattando gli ambienti alle

esigenze di chi ci vive.

Gli sviluppi appena illustrati sollevano non pochi problemi giuridici, in particolare attinenti

alla protezione della vita privata e alla tutela delle libertà individuali. È necessario a questo

proposito sviluppare un quadro giuridico atto a garantire che la fusione tra mondo virtuale

e mondo fisico si sviluppi nel rispetto dei valori umani, preservando e anzi potenziando le

nostre capacità di azione e autodeterminazione.

La documentazione giuridica e Internet

La tesi: i sistemi centralizzati degli anni '60 e '70

Tra gli anni '60 e gli anni '70 alcuni sistemi per la documentazione giuridica automatica

furono creati negli Stati Uniti prevalentemente da imprese private, in Europa invece si

attivarono soprattutto soggetti pubblici.

Tali sistemi inizialmente avevano una copertura ridotta, successivamente si sono estesi a

contenuti ulteriori, includendo la legislazione e regolamenti amministrativi. La creazione di

tali sistemi si basava sull'idea che si dovesse realizzare in ogni paese un singolo sistema

46

nazionale per la documentazione giuridica, nel quale tutte le fonti del diritto fossero

registrate elettronicamente e rese disponibili per la ricerca.

Dati i costi e le difficoltà dell'utilizzo di tali sistemi, il loro impiego era quasi completamente

limitato ai professionisti del diritto.

La storia di questi sistemi comprende successi e fallimenti, ma solo pochi di essi sono

sopravvissuti fino ai nostri giorni. Negli USA ricordiamo Lexis e in Italia Italgiure.

La antitesi: i molteplici sistemi isolati degli anni '90

Il personal computer consentì l'ingresso massiccio dell'informatica in tutte le attività

giuridiche. Benché i pc potessero accedere a banche di dati remote mediante linee

telefoniche, negli anni '80 la documentazione giuridica si spostò prevalentemente su basi

documentali disponibili sul pc, che potevano essere usate più facilmente senza costi e i

ritardi del servizio telefonico remoto. Ciò fu consentito dal compact disk, leggibile mediante

lettore ottico collegato al pc, e consultabile mediante software residente sullo stesso pc.

Questa innovazione tecnologica determinò l'entrata di nuovi attori nel campo della

fornitura di informazione giuridica: gli editori commerciali. Essendo il CD un oggetto

materiale facilmente distinguibile, gli editori potevano commercializzare le banche di dati

giuridici attraverso i canali esistenti per la vendita di libri e riviste. Rispetto alle banche di

dati remote allora disponibili, i CD erano molto superiori nella facilità di uso e

nell'integrazione dei contenuti.

La diffusione del PC contribuì alla diversificazione dei fornitori di informazione giuridica

elettronica anche in altro modo, cioè facilitando la redazione dei documenti giuridici in

forma elettronica. Fino agli anni '70 i calcolatori non erano ancora usati nella redazione dei

documenti. All'inizio degli anni '80, invece, si resero disponibili su PC elaboratori di testi

economici e di facile impiego, il cui uso si estese presto alla redazione dei documenti

giuridici. Di conseguenza la produzione della versione elettronica dei contenuti legislativi o

giurisprudenziali ha potuto precedere quella del testo cartaceo. La redazione di testi

mediante calcolatore ha consentito inoltre la progressiva integrazione tra la produzione dei

documenti giuridici e loro distribuzione in forma elettronica. Ciò avuto alcuni aspetti

importanti:

Si è ampliato l'ambito dei documenti che possono essere resi disponibili al pubblico

• Si è stabilita una connessione tra le procedure intese a produrre il diritto e i sistemi per la

• documentazione giuridica

Si è rafforzata la posizione delle autorità giuridiche, che possono distribuire direttamente

• i risultati della propria attività, in forma elettronica.

In molte giurisdizioni negli anni '80 si iniziò a distribuire un'edizione elettronica della

Gazzetta Ufficiale, divenendo il principale riferimento per i giuristi professionali e per i

cittadini. La sostituzione della gazzetta cartacea con la gazzetta elettronica si è

recentemente completata in alcuni paesi, come l'Austria e la Norvegia.

La sintesi: i sistemi universalmente accessibili, ma plurali, degli anni '90

La sintesi tra la tesi degli anni '70 e l'antitesi degli anni '80 si è compiuta negli anni '90,

mediante la rivoluzione di Internet, in particolare mediante il Web. Tale sintesi consiste

nell'accesso mediante un unico sistema tecnologico distribuito, a tutte le fonti di

documentazione giuridica.

La diversità delle fonti di cognizione del diritto disponibili su Internet è accresciuta dal fatto

che numerosi professionisti del diritto hanno iniziato trasferire fonti del diritto sul Web, per

attirare possibili clienti e informarli sulle proprie competenze. Inoltre vi sono organizzazioni

prive di scopo di lucro che forniscono on-line informazioni collegate alle proprie attività.

Oltre alle statuizioni delle autorità pubbliche, l'informazione giuridica su Web si estende

dibattito dottrinale e ad altri discorsi che riguardano il diritto. 47

La sintesi di Internet ha portato a una grande crescita della quantità di informazioni

giuridiche disponibili sul Web, una crescita da cui hanno tratto profitto gli studiosi del

diritto, ma anche i pratici e i comuni cittadini.

Tuttavia, non è facile ritrovare sul Web l'informazione giuridica di cui abbiamo bisogno:

bisogna estrarre tale informazione da una raccolta di materiali enorme e diversificata.

Solitamente usiamo a tal fine motori di ricerca per Internet e ritroviamo tutti i testi che

contengono certe parole o combinazioni di parole, ordinati secondo loro rilevanza. Il

risultato è spesso un insieme di documenti eccessivamente ampio, che rappresenta solo

l'inizio della nostra ricerca. Infatti dopo aver risolto il problema del rumore, dobbiamo

affrontare il problema del silenzio: sarebbe necessaria una ricerca avanzata capace di

trovare tutti i documenti che parlino del tema che ci interessa, usando qualsiasi

formulazione linguistica.

Una volta ritrovati tutti i documenti rilevanti, l'utente deve affrontare il compito di combinare

i diversi frammenti d'informazione che afferiscono al suo problema.

Una nuova tesi: un sistema informativo giuridico centralizzato per l'era di Internet

L'informazione giuridica su Internet è caratterizzata dalla frammentazione. Facilitare la

cognizione del diritto nell'era di Internet significa porre rimedio a questa frammentazione,

ma al riguardo possiamo distinguere due indirizzi antitetici, ancora una tesi e un'antitesi:

La tesi consiste in un nuovo modello di sistema di documentazione onnicomprensivo,

• affidato all'iniziativa pubblica, il cui funzionamento sia integrato con svolgimento delle

procedure legislative, giudiziarie e amministrative.

La antitesi consiste nello sviluppo decentrato di sistemi informativi, al di fuori della

• pubblica amministrazione, sulla base della libera disponibilità di documenti giuridici in

formato elettronico.

La tesi è presentata da Bing, il quale afferma che la direzione da seguire nella

documentazione giuridica automatica consiste nel passaggio dalla ricerca documentale

alla gestione della normativa.

Il sistema proposto da Bing consiste di una base di dati-madre che contiene tutti i

documenti giuridici. Tale base di dati dovrebbe essere predisposta e aggiornata mediante

un processo editoriale centralizzato che controlli documenti di input e inserisca in essi la

marcatura richiesta. Dalla base di dati madre si trarranno i diversi output in diversi formati.

Una nuova antitesi: l'accesso a risorse giuridiche distribuite

L'antitesi consiste nel fornire uno o più punti di accesso a risorse giuridiche condivise. Tali

risorse risiederanno normalmente sui sistemi informativi delle autorità che le hanno

prodotte, sistemi che saranno accessibili in rete. Diversi fornitori di contenuti giuridici

potranno accedere a tali risorse, e le potranno elaborare e distribuire nei modi che

ritengono opportuni.

In questo modello Internet fornisce sia i canali attraverso i quali l'informazione è estratta

dalle basi di dati originali, sia i canali attraverso i quali l'utilizzatore accede

alll'informazione.

Una volta che le autorità pubbliche abbiamo reso accessibili i testi giuridici in questa

forma, anche altri attori possono occuparsi della distribuzione di quei testi, e del loro

arricchimento con informazioni ulteriori. Lo Stato può intervenire sostenendo le autonome

attività di tali attori, gestendo direttamente i sistemi di documentazione giuridica.

Entrambi i modelli qui presentati presentano aspetti positivi. Il modello dell'unico database

madre è basato sull'idea che tutte le fonti del diritto dovrebbero essere registrate in formati

uniformi, corrispondenti alla loro tipologia, attraverso una procedura editoriale coerente. I

documenti normativi nella loro versione elettronica originale dovrebbero includere tutta 48

l'informazione necessaria per diverse successive utilizzazioni, in una forma elaborabile

automaticamente. Conseguentemente questo modello offre i seguenti vantaggi:

Affidabilità dell'informazione giuridica;

• Coerenza formale delle diverse fonti;

• Riduzione del rumore nelle ricerche giuridiche.

Anche l'idea di estrarre informazioni da basi di dati giuridici distribuite comporta notevoli

vantaggi:

Diversità dei servizi di informazione giuridica e concorrenza dei fornitori;

• Decentralizzazione e autonomia.

• Una nuova sintesi: l'adozione di standard condivisi

Nel corso degli ultimi anni è emersa una sintesi che consente di conservare i benefici di

entrambi gli indirizzi. Tale sintesi è basata sulla produzione e gestione di documenti

giuridici secondo standard condivisi. L'aspetto unificatore consiste nell'adozione di uno

standard comune: tale standard deve specificare come i contenuti giuridici possano

ricevere degli identificatori nomi univoci e come essi possano essere arricchiti di

informazioni elaborabili automaticamente. Lo standard dovrebbe fornire la possibilità di

esprimere, in modo riconoscibile dal calcolatore, non solo gli elementi strutturali del testo

ma anche i riferimenti normativi e le modifiche.

L'intelligenza artificiale

L'intelligenza

Manca una definizione univoca e condivisa di intelligenza, poiché l'intelligenza è un

fenomeno complesso, oggetto di diverse discipline, tra cui:

La filosofia;

• La matematica;

• L'economia;

• La medicina;

• La psicologia;

• La linguistica.

L'intelligenza artificiale ha tratto ispirazione da tutte le ricerche appena menzionate ma ha

aggiunto a esse un aspetto ingegneristico: essa non vuole studiare sull'intelligenza, ma

si propone di costruirla, di dar vita ad artefatti intelligenti.

Modelli di intelligenza artificiale

Stuart Russel e Peter Norvig distinguono diversi modi di accostarsi all'intelligenza secondo

due diverse dimensioni:

L'idea che l'intelligenza consista esclusivamente nel pensiero si contrappone all'idea che

• essa includa altresì l'interazione con l'ambiente, cioè la percezione e l'azione;

L'obiettivo di riprodurre fedelmente le capacità intellettive dell'uomo si contrappone

• all'obiettivo di realizzare sistemi capaci di razionalità prescindendo dai limiti della

razionalità umana.

In merito al primo punto, bisogna dire che l'attenzione per l'aspetto pratico è cresciuta

negli ultimi anni quando si sono sviluppate indagini volte a cogliere il comportamento

razionale nella relazione tra l'agente e il suo ambiente. Tali ricerche hanno enfatizzato

aspetti dell'intelligenza non riducibili al ragionamento in senso stretto, come la percezione,

la capacità di esplorare attivamente l'ambiente, e la comunicazione.

In merito al secondo punto, è opportuno ricordare il concetto di razionalità limitata: scelte

che appaiono irrazionali con riferimento un concetto ideale di razionalità possono invece

apparire appropriate quando si considerino i limiti delle nostre capacità conoscitive e la 49

complessità dell'ambiente. La nostra stessa ragione ci vieta di sprecare le nostre energie

nell'impossibile ricerca della scelta ottimale, e ci richiede di seguire procedure cognitive

fallibili, ma rapide ed economiche che conducano a risultati sufficientemente buoni nella

maggior parte dei casi. Queste procedure fallibili tese a economizzare le energie richieste

dall'impiego della ragione sono chiamate euristiche.

In conclusione, ciò che può apparire un difetto della razionalità umana, può rivelarsi una

procedura cognitiva appropriata per una razionalità limitata: emulare l'intelligenza umana,

anche in aspetti apparentemente irrazionali può talvolta condurre a soluzioni efficaci.

Intelligenza artificiale forte e intelligenza artificiale debole

Una distinzione importante è quella tra intelligenza artificiale forte e intelligenza artificiale

debole:

La prima muove dall'assunto che anche i calcolatori siano capaci di stati cognitivi e di

• pensiero e conseguentemente si propone di costruire menti artificiali;

La seconda invece si propone di realizzare sistemi artificiali capaci di svolgere compiti

• complessi, sistemi che possono simulare aspetti dei processi cognitivi umani, ma che

non possono riprodurre quegli stessi processi.

Il dibattito circa la possibilità di sviluppare forme di intelligenza artificiale forte, può essere

fatto risalire a Turing, che nel 1936 propone il gioco dell'imitazione, nel quale una persona

interroga due interlocutori di sesso diverso, al fine di determinare chi di questi sia l'uomo e

chi la donna. Nel gioco di Turing lo scopo è quello di distinguere l'interlocutore umano e

l'interlocutore elettronico, il calcolatore. Si avrà prova che intelligenza artificiale è stata

realizzata quando un sistema informatico riuscirà a ingannare l'interrogante, facendogli

credere di essere una persona. Fino ad oggi nessun sistema ha ancora superato il test di

Turing.

Tuttavia, il test di Turing solleva un importante problema teorico: ci possiamo chiedere se

un sistema che riuscisse a superare il test sarebbe una vera intelligenza artificiale, o

invece sarebbe solo un mero idiota sapiente, che simula una mente senza possedere a

veramente. Infatti il test di Turing è puramente comportamentale: per superarlo è

sufficiente che la macchina si comporti come un essere umano, non che esso abbia

veramente una mente, dei pensieri. Di conseguenza, l'intelligenza artificiale forte sarebbe

impossibile in linea di principio.

L'impossibilità di creare un'intelligenza artificiale forte è una tesi sostenuta da John Searle:

per criticare le pretese dell'intelligenza artificiale forte ha sviluppato il cosiddetto

"argomento della stanza cinese"

Breve storia dell'intelligenza artificiale

Il termine robot trae origine dall'opera teatrale R.U.R., dello scrittore cecoslovacco Capek:

i robot di Capek sono androidi costruiti per servire gli uomini, ma si ribelleranno ai loro

padroni e ciò causerà la fine dell'umanità.

Il tema del rapporto tra intelligenza artificiale intelligenza umana troverà sviluppo in

numerose opere di fantascienza. In particolare Clarke immaginò il calcolatore HAL, che

acquista una psicologia umana.

Invece Asimov analizza il problema del rapporto tra gli uomini e l'intelligenza artificiale,

superando lo schema dell'artefatto che si ribella al suo creatore. Nei racconti di Asimov i

robot sono di regola esseri benevoli, il cui funzionamento si ispira alle tre leggi della

robotica:

Un robot non può nuocere a un essere umano o consentire, mediante la propria

• omissione, che un essere umano subisca un danno. 50

Un robot deve obbedire agli ordini impartitigli da esseri umani, eccetto che quando questi

• ordini confliggano con la prima legge.

Un robot deve proteggere la propria esistenza fintantoché tale protezione non confligga

• con la prima o la seconda legge.

La benevolenza dei robot non esclude un aspetto problematico: il tema della dipendenza

dell'uomo dei propri servitori meccanici, che ripropone il tema della dipendenza del

padrone dai propri schiavi, illustrato da Hegel nella sua Fenomenologia dello spirito.

Gli entusiasmi dei pionieri e il paradigma dell'intelligenza artificiale simbolica

La ricerca scientifica e tecnologica nel campo dell'intelligenza inizio tra gli anni '40 e gli

anni '50. La nascita dell'intelligenza artificiale viene solitamente ricondotta a una celebre

conferenza tenutasi a Dartmouth, che riunì per un mese alcuni tra i principali pionieri della

materia. Lo scopo esplicito della riunione era lo studio dell'intelligenza automatica.

La tesi fondamentale che ispirava gli studiosi era espressa dalla famosa ipotesi del

sistema simbolico fisso, cioè dall'ipotesi che l'intelligenza possa risultare dal

funzionamento di un sistema che manipola strutture simboliche producendo altre

sequenze simboliche, secondo determinati processi.

Dato che ogni sistema di simboli fisici può essere realizzato mediante una macchina

universale e dato che i moderni calcolatori sono macchine universali, l'ipotesi che un

sistema di simboli fisici sia capace di intelligenza, implica che un calcolatore potrebbe dar

vita all'intelligenza.

Secondo questa linea di pensiero non vi sono limiti allo sviluppo dell'intelligenza

automatica, si tratta solo di sviluppare tecnologie hardware e software adeguate. Circa le

tecnologie hardware, furono inizialmente sviluppati calcolatori specificamente dedicati

all'intelligenza artificiale, le cosiddette "macchine per il Lisp".

Nel campo del software le ricerche si svilupparono in due direzioni complementari:

tecniche per la rappresentazione della conoscenza in strutture simboliche, e tecniche per

l'elaborazione di tali conoscenze, cioè per il ragionamento automatico. Ciò corrispondeva

al paradigma dell'intelligenza artificiale "simbolica", cioè all'assunto che un sistema capace

di risolvere problemi in modo intelligente debba unire due aspetti: una rappresentazione

simbolica delle conoscenze rilevanti, e la capacità di trarre conclusioni fondate su tali

conoscenze. Sviluppo e crisi delle ricerche di intelligenza artificiale

Negli anni seguenti, il programma di ricerca dell'intelligenza artificiale diede origine a

numerosi risultati. Da un lato furono sviluppati numerosi sistemi "intelligenti", capaci di

affrontare compiti apparentemente tali da richiedere intelligenza. Dall'altro lato furono

realizzati strumenti che facilitavano grandemente la realizzazione di sistemi intelligenti, in

particolare il linguaggio Lisp.

Questi successi condussero a previsioni esageratamente ottimistiche: alcuni studiosi

affermarono che entro un prossimo futuro sarebbero state disponibili macchine capaci di

raggiungere l'intelligenza umana. Il lento sviluppo delle applicazioni di intelligenza

artificiale smentì però queste previsioni: in particolare l'intelligenza artificiale non riuscì ad

affrontare in modo soddisfacente i compiti cognitivi che l'uomo compie spontaneamente e

apparentemente senza sforzo.

Negli anni seguenti l'accento passò pertanto al tentativo di risolvere problemi riguardanti

ambiti specialistici, nei quali la soluzione potesse essere ottenuta derivandola da un'ampia

base di conoscenze concernenti un particolare settore. Si trattava di realizzare sistemi

esperti capaci di risolvere in modo intelligente problemi che richiedessero una particolare

competenza, come quella di cui è dotato un esperto umano. 51

Tra gli anni '70 e '80 furono sviluppati numerosi sistemi esperti, e iniziarono anche i primi

studi in materia di intelligenza artificiale e diritto.

Anche nell'ambito dei sistemi esperti ai primi entusiasmi fece seguito una profonda

delusione. Si dovette constatare che i sistemi realizzati non erano in grado di sostituire la

prestazione di un professionista esperto, ma semmai di integrarne la competenza.

Per risultare veramente utile, un sistema esperto avrebbe dovuto essere superiore sia ai

sistemi che elaborano informazioni senza usare a tal fine una specifica competenza o

conoscenza, sia ai sistemi che forniscono informazioni all'esperto umano senza elaborare

tali informazioni.

Inoltre emersero alcune difficoltà inerenti allo sviluppo e la manutenzione di sistemi

esperti. In particolare si constatava che era difficile e costoso rappresentare la conoscenza

nella forma richiesta dal sistema esperto e mantenerla aggiornata.

Se da un lato i sistemi esperti venivano criticati a causa delle loro limitazioni, dall'altro lato

la prospettiva di un loro successo suscitava opposte inquietudini. Si temeva che l'uomo,

nel consegnare l'uso delle proprie conoscenze a un sistema informatico, venisse a

rinunciare al possesso di tali conoscenze, delegando le proprie attività intellettuali allo

strumento elettronico.

Diventa quindi necessario stabilire opportune modalità per l'integrazione tra intelligenza

umana e intelligenza automatica, cosicché, anche nell'ambito delle funzioni in cui si

utilizzino sistemi esperti, da un lato l'uomo continui a fornire competenze cognitive di cui

quella macchina è priva, e che dall'altro egli mantenga il controllo sulla conoscenza

trasferita alla macchina e sul processo della sua applicazione.

Dalla crisi ai primi successi

Nei primi anni '90 vi fu una profonda crisi delle ricerche di intelligenza artificiale, il

cosiddetto "inverno dell'intelligenza artificiale", un clima di generale sfiducia nei confronti

delle prospettive di questa disciplina. La crisi dell'intelligenza artificiale simbolica determinò

un'intensa attività di ricerca in direzioni diverse:

La ripresa degli studi sui modelli computazionali dell'attività neurale: mirano a

• riprodurre l'aspetto reattivo dell'intelligenza, cioè la capacità di rispondere agli input forniti

dall'esperienza e di adattare tale risposta in modo appropriato, senza il tramite del

ragionamento e della rappresentazione esplicita della conoscenza.

La creazione di nuovi modelli computazionali simbolici ispirati alle discipline

• matematiche ed economiche: i modelli simbolici hanno potuto essere grandemente

potenziati dall'uso di metodiche formali tratte anche dalle logiche filosofiche e da

discipline quali calcolo delle probabilità, la teoria della decisione, la teoria dei giochi, le

teorie dell'argomentazione.

L'attenzione per le dimensioni dell'azione della comunicazione: l'attenzione per gli

• aspetti dinamici e relazionali ha consentito di superare l'idea del sistema intelligente

quale mero intelletto, privo di iniziativa. Le ricerche si sono indirizzate verso la

realizzazione di agenti intelligenti, capaci anche di ricercare le informazioni rilevanti, di

percepirle esaminando l'ambiente e di agire sulla base degli obiettivi essi assegnati. È

stato così enfatizzato l'aspetto robotico dell'intelligenza artificiale.

Nei primi anni '90 le ricerche di intelligenza artificiale hanno incontrato Internet e le

tecniche di intelligenza artificiale hanno così trovato impiego in diversi strumenti per la

rete.

Questi sviluppi hanno determinato la fine dell'inverno dell'intelligenza artificiale. Dalla fine

degli anni '90 la ricerca è ripresa con rinnovato vigore e non sono mancati significativi

risultati in numerosi settori:

L'estrazione di informazioni da grandi masse di dati, per individuare comportamenti

• fraudolenti o anche per finalità attinenti alla sicurezza; 52

La selezione di informazioni rilevanti o l'eliminazione di quelle irrilevanti con tecniche

• intelligenti;

L'interpretazione degli esami medici e la consulenza medica;

• La traduzione automatica;

• I giochi;

• La gestione e la logistica;

• Il riconoscimento di immagini e movimenti;

• Robot fisici, utilizzati nell'esplorazione di regioni inospitali della terra o dello spazio, ma

• anche nelle attività industriali, nelle pulizie domestiche, nel gioco;

Gli agenti software, ai quali l'utilizzatore può delegare compiti da eseguire con autonomia

• negli spazi virtuali;

Il lato oscuro dell'intelligenza intelligenza artificiale: molte applicazioni sono state

• costruite anche per scopi militari, come le bombe intelligenti.

Tra i profili emergenti dell'intelligenza artificiale va ricordata l'intelligenza ambientale: si

tratta dell'inserimento nell'ambiente fisico di dispositivi automatici dotati della capacità di

elaborare informazioni e dotati di intelligenza. Tali dispositivi possono assorbire

informazioni sia dall'ambiente fisico sia dalla rete informatica, e di operare in entrambi gli

ambiti. Possono comunicare tra loro ma anche percepire i mutamenti dell'ambiente e di

reagire agli stessi.

L'Unione Europea ha fatto propria la prospettiva dell'intelligenza ambientale, dedicando a

essa un ampio spazio nell'ambito dei propri progetti di ricerca. Si tratta di una prospettiva

che manifesta diversi profili problematici, rispetto ai quali si rendono necessarie garanzie

giuridiche.

Il tema dell'intelligenza ambientale si incontra con il modello degli agenti software, cioè i

sistemi informatici in grado di agire con autonomia, senza il controllo diretto del loro

utilizzatore. Per il giurista presentano particolare interesse gli agenti software che non

esauriscono la propria attività nella sfera dell'utilizzatore, ma entrano in contatto con altri

soggetti. Ciò accade soprattutto su Internet. Gli agenti software possono essere usati in

particolare nella raccolta di informazioni e nell'attività contrattuale. Essi possono utilizzare

tecniche di intelligenza artificiale per accedere alle informazioni utili, accertare le

circostanze rilevanti per le loro azioni e agire conseguentemente.

Un profilo giuridico particolarmente interessante è quello della qualificazione dell'attività

realizzata dall'agente nell'interesse del suo utilizzatore, adempiendo con autonomia il

mandato affidatogli dalla utilizzatore stesso (si possono usare per analogia le norme sulla

rappresentanza? Per Sartor sì).

Il modello connessionistico: le reti neurali

La ricerca sulle reti neurali è ispirata dall'idea che l'intelligenza possa ottenersi

riproducendo l'hardware cerebrale, i neuroni, piuttosto che riproducendo le funzioni più

astratte svolte da quell'hardware, il ragionamento.

L'ipotesi, quindi, è che possiamo apprendere non solo acquisendo consapevolmente

contenuti formulati nel linguaggio, ma anche in modo del tutto inconsapevole, mediante la

modificazione delle connessioni tra i nostri neuroni.

La struttura delle reti neurali

La struttura informatica utilizzata per riprodurre questo tipo di apprendimento è la rete

neurale, una struttura software composta da unità chiamate neuroni, e da determinati

collegamenti tra le stesse unità. I neuroni artificiali riproducono informaticamente la

struttura dei neuroni presenti nel nostro cervello. Ogni neurone riceve segnali dai neuroni

a esso connessi, segnali che viaggiano seguendo determinati collegamenti. Ai 53

collegamenti sono assegnati pesi, cioè coefficienti secondo i quali i segnali passanti

attraverso i collegamenti stessi sono amplificati o ridotti.

Il funzionamento di ogni neurone è stabilito da funzioni logico-matematiche. Il neurone,

quando riceve determinati segnali, verifica se questi segnali abbiano raggiunto il livello

richiesto per la propria attivazione. Se livello non è stato raggiunto il neurone rimane

inerte; se invece il livello è stato raggiunto, il neurone si attiva, inviando a sua volta segnali

ai neuroni con esso connessi.

Combinando i neuroni otteniamo una rete neurale. Alcuni neuroni della rete ricevono input

dall'esterno; alcuni neuroni, i cosiddetti neuroni nascosti, sono collegati solo con altri

neuroni; alcuni neuroni, infine, inviano il loro output all'esterno della rete.

La tecnica più comune per addestrare una rete neurale consiste nel proporre alla rete una

serie di esempi corretti, cioè una serie di coppie, dove l'output indica il risultato corretto per

l'input corrispondente. L'elaborazione degli esempi avviene nel modo seguente: il sistema

determina la propria risposta rispetto all'input indicato nell'esempio. Se la risposta

differisce dall'output nell'esempio, la rete si riorganizza, cambiando la propria

configurazione in modo da poter dar la risposta corretta e non sbagliarsi più in futuro.

In ambito giuridico, le reti neurali sono solitamente addestrate mediante casi giudiziari.

Le reti neurali e il diritto

Ricordiamo il sistema Split-up, cui è stato affidato il compito di ripartire il patrimonio tra gli

ex coniugi in seguito a un divorzio. Nella rete di Split-up, i neuroni di input rappresentano i

fattori rilevanti nella decisione dei casi in questione, e i neuroni di output indicano le

possibili divisioni del patrimonio.

L'uso delle reti neurali nell'applicazione del diritto è stato finora assai limitato.

Un'importante ragione di ciò sta nel fatto che le reti neurali, anche quando indicano

soluzioni giuridiche plausibili, non offrono una giustificazione di tali soluzioni, nel senso

che non indicano quali premesse conducano al particolare risultato proposto dalla rete.

Questo fatto è suscettibile di diverse opinioni a seconda delle diverse teorie del diritto:

Chi segue un orientamento irrazionalistico, vedrà nelle reti neurali la possibilità di

• smascherare l'illusione logistica secondo cui le decisioni giuridiche seguirebbero

logicamente dall'applicazione delle norme ai fatti del caso;

Chi segue un orientamento logicistico, e assume che ogni decisione giuridica sia

• raggiunta applicando regole preesistenti ai fatti dati, riterrà aberrante ogni applicazione

delle reti neurali;

Chi adotta una prospettiva intermedia, secondo la quale nella decisione umana l'aspetto

• adattativo proprio delle reti neurali si unisce alla ricerca e all'applicazione di premesse

atte a fondare la decisione, riterrà il modello delle reti neurali suscettibile di qualche

applicazione, pur entro confini ristretti.

Secondo Sartor le reti neurali artificiali oggi disponibili hanno una capacità molto limitata

• nel ricevere e nell'elaborare le esperienze, e non sono in grado di collegare conoscenze

adattive e premesse esplicite del ragionamento.

Un interessante uso delle reti neurali consiste nello smascherare false giustificazioni, cioè

giustificazioni che pongono a fondamento di decisioni giuridiche fattori diversi da quelli che

hanno realmente motivato tali decisioni.

Conoscenza esplicita e ragionamento

Il modello prevalente dell'intelligenza artificiale rimane quello dell'utilizzo esplicito della

conoscenza, mediante metodi per il ragionamento automatico. A questo fine bisogna che il

sistema informatico disponga di due componenti: una rappresentazione della 54

conoscenza rilevante, e metodi per il ragionamento automatico applicabili a tale

rappresentazione.

Ricordiamo che in generale il ragionamento consiste nel passaggio da certe ragioni a

conclusioni giustificate da tali ragioni. Tale passaggio avviene in generale secondo modelli

generali e schemi di ragionamento, forniti dalla logica. Il ragionamento che consiste nel

passaggio da certe premesse a certe conclusioni, secondo determinato schema, può

essere detto inferenza. La correttezza di un'inferenza non garantisce però la verità/validità

della sua conclusione. La verità/validità della conclusione tratta da un certo insieme di

premesse mediante un'inferenza, è, in generale, garantita solo dalla compresenza delle

seguenti condizioni:

La verità/validità delle premesse;

• La correttezza dell'inferenza;

• L'assenza di inferenze prevalenti contro l'impiego delle premesse o contro l'esecuzione

• dell'inferenza

Le prime due condizioni sono sufficienti a garantire conclusioni tratte secondo il

ragionamento deduttivo, che presuppone che premesse e inferenze non ammettano

eccezioni, mentre la terza condizione si richiede qualora si ricorra al ragionamento

defeasible. Ragionamento e applicazione di regole

Illustriamo il tipo di ragionamento più frequente in ambito giuridico: l'applicazione di regole.

Per regola si intende un enunciato condizionale, che collega un'antecedente e un

conseguente consentendo di inferire il secondo dal primo. Il concetto di regola come

condizionale corrisponde all'idea diffusa che le regole giuridiche colleghino una fattispecie

e una conseguenza giuridica: la fattispecie astratta è l'antecedente della regola e la

conseguenza giuridica astratta ne è il conseguente.

Si possono ricondurre al ragionamento mediante regole anche inferenze espresse in altro

modo, come per esempio il sillogismo che combina una premessa universale e una

premessa individuale.

Il modello delle regole può essere impiegato per rappresentare anche conoscenze di

diverso tipo.

Infine, possiamo utilizzare regole per rappresentare conoscenze giuridiche. In questo caso

solitamente si usano regole per rappresentare la conoscenza normativa, e asserti

incondizionati (fatti) per rappresentare la fattispecie concreta.

I sistemi basati su regole nel diritto

I sistemi basati su regole costituiscono il tipo più semplice e diffuso di sistema basato sulla

conoscenza. Tali sistemi contengono una base di conoscenza costituita da regole, e un

motore di inferenza, che applica tali regole ai dati di fatto attinenti ai casi concreti. Le

informazioni attinenti ai casi possono essere fornite dall'utilizzatore umano del sistema o

estratte da archivi informatici. Il modello del sistema basato su regole ha trovato

applicazione in numerosi ambiti.

I primi studi sui sistemi basati su regole risalgono agli anni '60, quando furono realizzati i

primi prototipi.

Anche in ambito giuridico si realizzarono alcuni sistemi prototipali negli anni '70, ma la

ricerca che ha maggiormente influenzato il dibattito teorico e le soluzioni applicative fu

realizzata presso l'Imperial College di Londra tra la fine degli anni '70 e l'inizio degli anni

'80. La ricerca mostrò come le norme giuridiche potessero essere rappresentate in forma

di regole, e potessero essere applicate secondo modelli logici efficienti, intuitivi e rigorosi.

55

Negli anni successivi non mancarono tentativi di realizzare sistemi basati su regole che

trovassero immediato impiego nell'ambito delle attività giuridiche, uscendo dallo stadio

prototipale.

L'importanza di tali sistemi deriva dalla possibilità di applicare un numero elevato di regole,

tenendo conto dei collegamenti tra le stesse. Essi possono così supplire ai limiti della

memoria, dell'attenzione, e della capacità combinatoria dell'uomo.

Sistemi basati sulla conoscenza sistemi esperti

La caratteristica essenziale dei sistemi basati sulla conoscenza consiste nel fatto che il

loro funzionamento si basa sull'utilizzo di una base di conoscenza. Tale base di

conoscenza consiste in un insieme di informazioni specialistiche, attinenti all'ambito

particolare in cui tali sistemi devono operare, e alle tecniche utilizzabili per la soluzione dei

problemi che possano emergere in quell'ambito.

I sistemi basati sulla conoscenza sono spesso identificati con i cosiddetti sistemi esperti,

cioè sistemi intesi a fornire funzionalità che richiedono una specifica competenza

professionale. Un sistema basato sulla conoscenza svolge funzioni basate su conoscenze

specialistiche, che solo un esperto possiede. Ciò non significa però che esso sia un vero

esperto, cioè che possa svolgere da solo un'intera prestazione professionale, comprensiva

di tutte le funzioni che si affiderebbero all'esperienza umano. Questo obiettivo non sarà

mai realizzabile. L'idea dell'esperto automatico pone non solo ostacoli tecnologici ma

anche problemi giuridici ed etici. Si veda l'esempio dell'automa professionista nella

medicina e nel diritto a pagina 299.

Un obiettivo realizzabile consiste nell'affidare all'elaborazione automatica particolari fasi o

momenti delle attività giuridiche che si affiancano e integrano a quelli affidati all'uomo.

La prospettiva nella quale collocare l'interazione tra uomo e sistema informatico è quella

della simbiosi uomo-macchina.

L'uso dei sistemi basati sulla conoscenza giuridica

I risultati operativi ottenuti in ambito giuridico mediante sistemi basati sulla conoscenza

furono inizialmente inferiori alle attese. Negli ultimi anni tuttavia, queste iniziali delusioni

sono state seguite da alcuni importanti successi, in particolare nell'ambito della pubblica

amministrazione. La ragione fondamentale di tale cambiamento è da ritrovarsi nell'avvento

di Internet, che ha modificato completamente l'uso delle applicazioni informatiche e in

particolare dei sistemi basati sulla conoscenza. Internet rappresenta infatti un mondo

aperto dove un sistema può essere utilizzato da un numero illimitato di utenti, le funzioni di

un sistema possono essere integrate con quelle offerte da altri sistemi nell'ambito di

architetture distribuite. Inoltre il sistema può essere integrato con altri sistemi informatici in

modo tale che le funzioni svolte da ciascuno di tali sistemi siano "orchestrate" per

realizzare una funzionalità complessiva. Si tratta del modello informatico dei servizi di rete:

molteplici funzioni informatiche sono rese disponibili on-line e possono essere integrate in

un sistemi virtuali.

Le pubbliche amministrazioni e soggetti che forniscono servizi pubblici hanno iniziato

usare Internet per fornire informazioni ai cittadini. Talvolta l'utente è abilitato a estrarre

dagli archivi elettronici della pubblica amministrazione i dati che lo riguardano e a

effettuare l'aggiornamento degli stessi.

I sistemi basati sulla conoscenza possono portare un importante progresso nell'uso di

Internet da parte della pubblica amministrazione: essi non si limitano a fornire documenti,

ma impiegano le regole associate ai documenti per agevolare lo svolgimento delle relative

attività amministrative.

I sistemi basati sulla conoscenza sono quindi strumenti che forniscono un aiuto intelligente

al richiedente del servizio o al funzionario che lo gestisce. L'esperienza delle pubbliche 56


ACQUISTATO

2 volte

PAGINE

57

PESO

11.74 MB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea magistrale in giurisprudenza
SSD:
Università: Bologna - Unibo
A.A.: 2014-2015

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher luigi1992 di informazioni apprese con la frequenza delle lezioni di Informatica Giuridica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Bologna - Unibo o del prof Sartor Giovanni.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Informatica giuridica

Riassunto esame Informatica Giuridica, prof. Sartor, libro consigliato Il diritto dell'era digitale, Pascuzzi
Appunto
Informatica giuridica - informatica e tutela giuridica
Appunto
Riassunto esame Diritto dell'Unione Europea, prof. Di Federico, libro consigliato Diritto dell'Unione Europea, Tesauro
Appunto
Riassunto esame Diritto di Famiglia, prof. Sesta, libro consigliato Manuale di diritto di famiglia
Appunto