Anteprima
Vedrai una selezione di 5 pagine su 17
Riassunto esame Etica dell'innovazione tecnologica, Prof. Saponaro Armando, libro consigliato Etica dell'intelligenza artificiale , Luciano Floridi Pag. 1 Riassunto esame Etica dell'innovazione tecnologica, Prof. Saponaro Armando, libro consigliato Etica dell'intelligenza artificiale , Luciano Floridi Pag. 2
Anteprima di 5 pagg. su 17.
Scarica il documento per vederlo tutto.
Riassunto esame Etica dell'innovazione tecnologica, Prof. Saponaro Armando, libro consigliato Etica dell'intelligenza artificiale , Luciano Floridi Pag. 6
Anteprima di 5 pagg. su 17.
Scarica il documento per vederlo tutto.
Riassunto esame Etica dell'innovazione tecnologica, Prof. Saponaro Armando, libro consigliato Etica dell'intelligenza artificiale , Luciano Floridi Pag. 11
Anteprima di 5 pagg. su 17.
Scarica il documento per vederlo tutto.
Riassunto esame Etica dell'innovazione tecnologica, Prof. Saponaro Armando, libro consigliato Etica dell'intelligenza artificiale , Luciano Floridi Pag. 16
1 su 17
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

NON MALEFICENZA

2.

Non maleficenza = “Non fare del male”

Esprime l’obbligo generale di non arrecare danno intenzionalmente.

Bisogna creare un'IA benefica e dobbiamo guardarci dalle varie conseguenze

negative derivanti dall'uso eccessivo o improprio delle tecnologie di IA. Di

particolare interesse è la prevenzione delle violazioni della privacy personale.

Tuttavia, non è del tutto chiaro se siano le persone che sviluppano IA, o la tecnologia

stessa, che dovrebbero essere incoraggiate a non fare del male.

Al centro di questo dilemma c’è la questione dell'autonomia.

AUTONOMIA

3.

Affermare il principio di autonomia nel contesto dell'IA significa trovare un

equilibrio tra il potere decisionale che ci riserviamo e quello che deleghiamo agli

agenti artificiali. Il rischio è che la crescita dell'autonomia artificiale possa minare il

fiorire dell'autonomia umana. L'autonomia umana deve essere promossa e

l'autonomia delle macchine debba essere limitata e resa intrinsecamente reversibile,

qualora l'autonomia umana debba essere protetta o ristabilita (si pensi al caso di un

pilota in grado di disattivare il pilota automatico e riprendere il pieno controllo

dell'aereo). Gli esseri umani dovrebbero mantenere il potere di decidere quali

decisioni prendere, esercitando la libertà di scelta dove necessario e cedendola nei

casi in cui ragioni di primaria importanza, come l'efficacia, possano prevalere sulla

perdita di controllo sul processo decisionale.

4. GIUSTIZIA

La decisione di prendere o delegare decisioni non avviene nel vuoto. Né questa

capacità è distribuita equamente nella società. Gli effetti di tale disparità di autonomia

sono affrontati con il principio di giustizia.

I diversi modi in cui è caratterizzata la giustizia rinviano a una più ampia assenza di

chiarezza sull‘IA come riserva di agire intelligente creata dagli esseri umani.

Siamo noi umani il paziente che riceve le "cure" dell'IA, il medico che le prescrive, o

entrambi?

Tale questione può essere risolta solo con l’introduzione di un quinto principio che

include sia il senso epistemologico di intelligibilità (come risposta alla domanda:

"Come funziona?") sia quello etico di responsabilità (accountability) (come risposta

alla domanda: "Chi è responsabile del modo in cui funziona?").

5. ESPLICABILITÀ

RISPOSTA alla domanda precedente (se siamo il paziente o il medico) = potremmo

essere entrambi a seconda delle circostanze e di chi sia il "noi" a cui ci riferiamo nella

vita di tutti i giorni.

Tutti fanno riferimento alla necessità di comprendere e di rendere conto dei processi

decisionali dell'IA. Diversi termini esprimono questo principio: “trasparenza”,

“responsabilità”, “intelligibilità”, “comprensibile e interpretabile”.

FUNZIONAMENTO DELL’IA: è spesso invisibile o incomprensibile a tutti tranne

(nella migliore delle ipotesi) agli osservatori più esperti.

L’aggiunta del principio di esplicabilità completa gli altri quattro: affinché l'IA sia

benefica e non malefica, dobbiamo essere in grado di comprendere il bene o il danno

che sta effettivamente facendo alla società e in quali modi, affinché l'IA promuova e

non limiti l'autonomia umana, la nostra "decisione su chi dovrebbe decidere" deve

essere informata dalla conoscenza di come l'IA agirebbe al nostro posto e, in tal caso,

di come migliorare le sue prestazioni; e, affinché l'IA sia giusta, dobbiamo sapere chi

ritenere eticamente o legalmente responsabile in caso di un esito grave e negativo, il

che richiederebbe a sua volta un'adeguata comprensione del perché tale esito si sia

prodotto.

I 5 principi costituiscono un quadro etico entro il quale possono essere formulate

politiche, migliori pratiche, e altre raccomandazioni, al fine di alleviare o amplificare

le disuguaglianze esistenti, di risolvere problemi vecchi e nuovi o di causarne senza

precedenti. Per questo sono universali ma non assoluti.

Tracciare il percorso socialmente preferibile (equo) e sostenibile dal punto di vista

ambientale dipenderà non solo da una regolamentazione ben articolata e da standard

comuni, ma anche dall'utilizzo di un quadro di principi etici, all'interno del quale si

possono collocare azioni concrete.

STRUTTURA RAGIONAMENTO MORALE

- TEORIE ETICHE

- PRINCIPI

- REGOLE/NORME

- GIUDIZI PARTICOLARI

I principi della bioetica possono avere delle conseguenze, dei potenziali

comportamenti rischiosi (RISCHI dell’ETICA dell’IA).

Partendo dalla cosiddetta “proliferazione dei principi”

SHOPPING ETICO DIGITALE (1)

DEFINIZIONE: il malcostume di scegliere, adattare o rivedere ("mescolare e

abbinare") principi etici, linee guida, codici, quadri di riferimento o altri standard

simili (specialmente ma non solo nell'etica dell'iA), estraendoli da una varietà di

offerte disponibili, per conferire una patina nuova ad alcuni comportamenti

preesistenti (scelte, processi, strategie ecc.) e in tal modo giustificarli a posteriori =>

giustificare attraverso l’etica qualcosa

Il rischio potenziale è quello di “mescolare e abbinare” l'elenco dei principi etici che

si preferiscono cedendo così ad un relativismo interpretativo.

La strategia per affrontare lo shopping etico digitale è quella di stabilire standard etici

chiari, condivisi e pubblicamente accettati.

BLUEWASHING (2)

DEFINIZIONE: il malcostume di fare affermazioni infondate o fuorvianti al riguardo

(o di attuare misure superficiali a favore) dei valori etici e dei benefici di processi,

prodotti, servizi o altre soluzioni digitali al fine di apparire più etici dal punto di vista

digitale di quanto non si sia effettivamente => teoria della disinformazione

OBIETTIVI:

- distrarre il destinatario del messaggio da tutto ciò che sta andando storto, potrebbe

andare meglio o non sta accadendo ma dovrebbe accadere;

- mascherare e lasciare inalterati i comportamenti che dovrebbero essere migliorati;

- conseguire risparmi economici;

- ottenere qualche vantaggio.

Oggigiorno, il bluewashing etico è particolarmente allettante nel contesto dell'IA,

dove le questioni etiche sono molte, i costi per fare la cosa giusta possono essere

elevati e la confusione normativa è diffusa.

La migliore strategia contro il bluewashing è: trasparenza e formazione. La

trasparenza pubblica, responsabile e basata su dati in riferimento alle buone pratiche e

alle affermazioni etiche, dovrebbe essere una priorità da parte degli attori che

desiderano evitare l'apparenza di essere impegnati in qualche pratica scorretta di

bluewashing. La formazione pubblica di ogni destinatario di bluewashing sul se e su

quali pratiche etiche efficaci siano effettivamente implementate comporta che gli

attori potrebbero avere meno probabilità di (essere tentati di) distogliere l'attenzione

del pubblico dalle sfide etiche con cui si confrontano e decidere invece di affrontarle.

LOBBISMO ETICO (3)

DEFINIZIONE: il malcostume di sfruttare letica digitale per ritardare, rivedere,

sostituire o evitare un'idonea e necessaria regolazione giuridica (o la sua

applicazione) relativa al design, lo sviluppo e l'implementazione di processi, prodotti,

servizi o altre soluzioni digitali.

Il lobbismo etico digitale come tattica a breve termine può creare molti danni,

ritardando l'introduzione delle norme necessarie, contribuendo a eludere in tutto o in

parte interpretazioni più rigorose delle norme esistenti. Inoltre, questo malcostume, o

il suo sospetto, rischia di minare alla base il valore di qualsiasi autoregolazione etica

digitale.

L'autoregolazione è uno dei principali e più preziosi strumenti disponibili per la

formulazione di policy. Essa non può di per sé sostituire la legge, ma se correttamente

attuata può essere utilmente complementare ogni volta che

- la normativa non è disponibile;

- la normativa è disponibile, ma necessita anche di un'interpretazione etica;

- la normativa è disponibile, ma necessita anche di un contrappeso etico, se è meglio

non fare qualcosa, anche se non è illecito farlo;

- è meglio fare qualcosa, sebbene non sia giuridicamente richiesto.

La strategia contro il lobbismo etico digitale è duplice:

deve essere contrastato da una buona normativa e da una sua applicazione

1. efficace.

il lobbismo etico digitale deve essere reso manifesto ogni volta che si verifica ed

2. essere chiaramente distinto dalle vere forme di autoregolazione.

DUMPING ETICO (4)

2 DEFINIZIONI:

- il malcostume di esportare attività di ricerca contrari all’etica dove vi siano

cornici legali ed etiche 

Il dumping etico può influenzare l'etica digitale non solo in termini di esportazione

non etica di attività di ricerca ma anche in termini di importazione non etica dei

risultati di tali attività.

Sia il lobbismo sia il dumping etico vogliono evitare una regolazione giuridica.

Anche in questo caso la strategia è duplice: bisogna concentrarsi sull'etica della

ricerca e sull'etica del consumo.

ELUSIONE ETICA (5)

DEFINIZIONE: il malcostume di svolgere sempre meno "lavoro etico" (come

adempiere ai doveri, rispettare i diritti, onorare gli impegni ecc.) in un dato contesto

quanto più basso è percepito (erroneamente) il ritorno di tale lavoro etico in quel

contesto.

L’elusione dell’etica consiste nel far finta di utilizzare l’etica quando non la si sta

utilizzando.

La strategia contro l'elusione dell’etica consiste nell'affrontare la sua origine, che è la

mancanza di una chiara allocazione di responsabilità. Per sradicare un tale

malcostume è necessaria anche un'etica della responsabilità distribuita che ricollochi

le responsabilità nel luogo che è loro proprio.

Comprendere quanto prima possibile che scorciatoie, dilazioni o soluzioni rapide non

portano a soluzioni etiche migliori ma a problemi più seri non garantisce che i 5

malcostumi esaminati spariranno, ma significa che saranno ridotti nella misura in cui

sono realmente basati su incomprensioni e giudizi errati.

Non conoscere meglio è la fonte di molti mali: la soluzione risiede spesso in maggiori

e migliori informazioni per tutti.

Qual è il nostro progetto per affrontare il passaggio all’era digitale?

GOVERNANCE DIGITALE: pratica di stabilire e attuare politiche, procedure e

1. standard per i corretti sviluppo, utilizzo e gestione dell’infosfera;

Dettagli
A.A. 2023-2024
17 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/03 Telecomunicazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher francesca.cicirelli di informazioni apprese con la frequenza delle lezioni di Etica dell'innovazione tecnologica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bari o del prof Saponaro Armando.