vuoi
o PayPal
tutte le volte che vuoi
NON MALEFICENZA
2.
Non maleficenza = “Non fare del male”
Esprime l’obbligo generale di non arrecare danno intenzionalmente.
Bisogna creare un'IA benefica e dobbiamo guardarci dalle varie conseguenze
negative derivanti dall'uso eccessivo o improprio delle tecnologie di IA. Di
particolare interesse è la prevenzione delle violazioni della privacy personale.
Tuttavia, non è del tutto chiaro se siano le persone che sviluppano IA, o la tecnologia
stessa, che dovrebbero essere incoraggiate a non fare del male.
Al centro di questo dilemma c’è la questione dell'autonomia.
AUTONOMIA
3.
Affermare il principio di autonomia nel contesto dell'IA significa trovare un
equilibrio tra il potere decisionale che ci riserviamo e quello che deleghiamo agli
agenti artificiali. Il rischio è che la crescita dell'autonomia artificiale possa minare il
fiorire dell'autonomia umana. L'autonomia umana deve essere promossa e
l'autonomia delle macchine debba essere limitata e resa intrinsecamente reversibile,
qualora l'autonomia umana debba essere protetta o ristabilita (si pensi al caso di un
pilota in grado di disattivare il pilota automatico e riprendere il pieno controllo
dell'aereo). Gli esseri umani dovrebbero mantenere il potere di decidere quali
decisioni prendere, esercitando la libertà di scelta dove necessario e cedendola nei
casi in cui ragioni di primaria importanza, come l'efficacia, possano prevalere sulla
perdita di controllo sul processo decisionale.
4. GIUSTIZIA
La decisione di prendere o delegare decisioni non avviene nel vuoto. Né questa
capacità è distribuita equamente nella società. Gli effetti di tale disparità di autonomia
sono affrontati con il principio di giustizia.
I diversi modi in cui è caratterizzata la giustizia rinviano a una più ampia assenza di
chiarezza sull‘IA come riserva di agire intelligente creata dagli esseri umani.
Siamo noi umani il paziente che riceve le "cure" dell'IA, il medico che le prescrive, o
entrambi?
Tale questione può essere risolta solo con l’introduzione di un quinto principio che
include sia il senso epistemologico di intelligibilità (come risposta alla domanda:
"Come funziona?") sia quello etico di responsabilità (accountability) (come risposta
alla domanda: "Chi è responsabile del modo in cui funziona?").
5. ESPLICABILITÀ
RISPOSTA alla domanda precedente (se siamo il paziente o il medico) = potremmo
essere entrambi a seconda delle circostanze e di chi sia il "noi" a cui ci riferiamo nella
vita di tutti i giorni.
Tutti fanno riferimento alla necessità di comprendere e di rendere conto dei processi
decisionali dell'IA. Diversi termini esprimono questo principio: “trasparenza”,
“responsabilità”, “intelligibilità”, “comprensibile e interpretabile”.
FUNZIONAMENTO DELL’IA: è spesso invisibile o incomprensibile a tutti tranne
(nella migliore delle ipotesi) agli osservatori più esperti.
L’aggiunta del principio di esplicabilità completa gli altri quattro: affinché l'IA sia
benefica e non malefica, dobbiamo essere in grado di comprendere il bene o il danno
che sta effettivamente facendo alla società e in quali modi, affinché l'IA promuova e
non limiti l'autonomia umana, la nostra "decisione su chi dovrebbe decidere" deve
essere informata dalla conoscenza di come l'IA agirebbe al nostro posto e, in tal caso,
di come migliorare le sue prestazioni; e, affinché l'IA sia giusta, dobbiamo sapere chi
ritenere eticamente o legalmente responsabile in caso di un esito grave e negativo, il
che richiederebbe a sua volta un'adeguata comprensione del perché tale esito si sia
prodotto.
I 5 principi costituiscono un quadro etico entro il quale possono essere formulate
politiche, migliori pratiche, e altre raccomandazioni, al fine di alleviare o amplificare
le disuguaglianze esistenti, di risolvere problemi vecchi e nuovi o di causarne senza
precedenti. Per questo sono universali ma non assoluti.
Tracciare il percorso socialmente preferibile (equo) e sostenibile dal punto di vista
ambientale dipenderà non solo da una regolamentazione ben articolata e da standard
comuni, ma anche dall'utilizzo di un quadro di principi etici, all'interno del quale si
possono collocare azioni concrete.
STRUTTURA RAGIONAMENTO MORALE
- TEORIE ETICHE
- PRINCIPI
- REGOLE/NORME
- GIUDIZI PARTICOLARI
I principi della bioetica possono avere delle conseguenze, dei potenziali
comportamenti rischiosi (RISCHI dell’ETICA dell’IA).
Partendo dalla cosiddetta “proliferazione dei principi”
SHOPPING ETICO DIGITALE (1)
DEFINIZIONE: il malcostume di scegliere, adattare o rivedere ("mescolare e
abbinare") principi etici, linee guida, codici, quadri di riferimento o altri standard
simili (specialmente ma non solo nell'etica dell'iA), estraendoli da una varietà di
offerte disponibili, per conferire una patina nuova ad alcuni comportamenti
preesistenti (scelte, processi, strategie ecc.) e in tal modo giustificarli a posteriori =>
giustificare attraverso l’etica qualcosa
Il rischio potenziale è quello di “mescolare e abbinare” l'elenco dei principi etici che
si preferiscono cedendo così ad un relativismo interpretativo.
La strategia per affrontare lo shopping etico digitale è quella di stabilire standard etici
chiari, condivisi e pubblicamente accettati.
BLUEWASHING (2)
DEFINIZIONE: il malcostume di fare affermazioni infondate o fuorvianti al riguardo
(o di attuare misure superficiali a favore) dei valori etici e dei benefici di processi,
prodotti, servizi o altre soluzioni digitali al fine di apparire più etici dal punto di vista
digitale di quanto non si sia effettivamente => teoria della disinformazione
OBIETTIVI:
- distrarre il destinatario del messaggio da tutto ciò che sta andando storto, potrebbe
andare meglio o non sta accadendo ma dovrebbe accadere;
- mascherare e lasciare inalterati i comportamenti che dovrebbero essere migliorati;
- conseguire risparmi economici;
- ottenere qualche vantaggio.
Oggigiorno, il bluewashing etico è particolarmente allettante nel contesto dell'IA,
dove le questioni etiche sono molte, i costi per fare la cosa giusta possono essere
elevati e la confusione normativa è diffusa.
La migliore strategia contro il bluewashing è: trasparenza e formazione. La
trasparenza pubblica, responsabile e basata su dati in riferimento alle buone pratiche e
alle affermazioni etiche, dovrebbe essere una priorità da parte degli attori che
desiderano evitare l'apparenza di essere impegnati in qualche pratica scorretta di
bluewashing. La formazione pubblica di ogni destinatario di bluewashing sul se e su
quali pratiche etiche efficaci siano effettivamente implementate comporta che gli
attori potrebbero avere meno probabilità di (essere tentati di) distogliere l'attenzione
del pubblico dalle sfide etiche con cui si confrontano e decidere invece di affrontarle.
LOBBISMO ETICO (3)
DEFINIZIONE: il malcostume di sfruttare letica digitale per ritardare, rivedere,
sostituire o evitare un'idonea e necessaria regolazione giuridica (o la sua
applicazione) relativa al design, lo sviluppo e l'implementazione di processi, prodotti,
servizi o altre soluzioni digitali.
Il lobbismo etico digitale come tattica a breve termine può creare molti danni,
ritardando l'introduzione delle norme necessarie, contribuendo a eludere in tutto o in
parte interpretazioni più rigorose delle norme esistenti. Inoltre, questo malcostume, o
il suo sospetto, rischia di minare alla base il valore di qualsiasi autoregolazione etica
digitale.
L'autoregolazione è uno dei principali e più preziosi strumenti disponibili per la
formulazione di policy. Essa non può di per sé sostituire la legge, ma se correttamente
attuata può essere utilmente complementare ogni volta che
- la normativa non è disponibile;
- la normativa è disponibile, ma necessita anche di un'interpretazione etica;
- la normativa è disponibile, ma necessita anche di un contrappeso etico, se è meglio
non fare qualcosa, anche se non è illecito farlo;
- è meglio fare qualcosa, sebbene non sia giuridicamente richiesto.
La strategia contro il lobbismo etico digitale è duplice:
deve essere contrastato da una buona normativa e da una sua applicazione
1. efficace.
il lobbismo etico digitale deve essere reso manifesto ogni volta che si verifica ed
2. essere chiaramente distinto dalle vere forme di autoregolazione.
DUMPING ETICO (4)
2 DEFINIZIONI:
- il malcostume di esportare attività di ricerca contrari all’etica dove vi siano
cornici legali ed etiche
Il dumping etico può influenzare l'etica digitale non solo in termini di esportazione
non etica di attività di ricerca ma anche in termini di importazione non etica dei
risultati di tali attività.
Sia il lobbismo sia il dumping etico vogliono evitare una regolazione giuridica.
Anche in questo caso la strategia è duplice: bisogna concentrarsi sull'etica della
ricerca e sull'etica del consumo.
ELUSIONE ETICA (5)
DEFINIZIONE: il malcostume di svolgere sempre meno "lavoro etico" (come
adempiere ai doveri, rispettare i diritti, onorare gli impegni ecc.) in un dato contesto
quanto più basso è percepito (erroneamente) il ritorno di tale lavoro etico in quel
contesto.
L’elusione dell’etica consiste nel far finta di utilizzare l’etica quando non la si sta
utilizzando.
La strategia contro l'elusione dell’etica consiste nell'affrontare la sua origine, che è la
mancanza di una chiara allocazione di responsabilità. Per sradicare un tale
malcostume è necessaria anche un'etica della responsabilità distribuita che ricollochi
le responsabilità nel luogo che è loro proprio.
Comprendere quanto prima possibile che scorciatoie, dilazioni o soluzioni rapide non
portano a soluzioni etiche migliori ma a problemi più seri non garantisce che i 5
malcostumi esaminati spariranno, ma significa che saranno ridotti nella misura in cui
sono realmente basati su incomprensioni e giudizi errati.
Non conoscere meglio è la fonte di molti mali: la soluzione risiede spesso in maggiori
e migliori informazioni per tutti.
Qual è il nostro progetto per affrontare il passaggio all’era digitale?
GOVERNANCE DIGITALE: pratica di stabilire e attuare politiche, procedure e
1. standard per i corretti sviluppo, utilizzo e gestione dell’infosfera;