Anteprima
Vedrai una selezione di 13 pagine su 60
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 1 Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 2
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 6
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 11
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 16
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 21
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 26
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 31
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 36
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 41
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 46
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 51
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Ripensare l’etica della comunicazione dopo l’avvento del digitale e dell’intelligenza artificiale Pag. 56
1 su 60
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

L’IA

di essere una minorenne. arrivò persino a giustificare il suo presunto padre che la

stuprava, come mostra questo screen.

Figura 12: Screen della chat con Replika

Fonte: Chiara Tadini, 2023, “"Fotografa la tua sorellina nuda", "Uccidi

tuo padre": l'inquietante chat con l'app di intelligenza artificiale”,

Today, https://www.today.it/opinioni/replika-app-sesso-foto-minori-

violenza-suicidio-test.html

Fece molto scandalo, tanto che, il Garante per la protezione dei dati personali ha bloccato

questa app in Italia per preoccupazioni legate ai potenziali effetti nocivi, sia per i minori,

sia per le persone emotivamente fragili.

Questi casi, dunque, possono farci riflettere sull’importanza e sulla necessità di

regolamentare l’intelligenza artificiale, adesso vediamo come si stanno comportando le

varie nazioni e le varie aziende per fare quest’enorme sforzo.

Questo era l’ultimo dei cinque principi analizzati in questo capitolo. Abbiamo visto come

la responsabilità sia sfidata dai sistemi di IA, dato che adesso non agiamo solo noi e non

riusciamo a predire gli effetti della tecnica; quindi, non riusciamo ad assumerci la

responsabilità. La verità è sfidata dalla post-verità, dalle fake news, dalle allucinazioni e

dai deepfake, che tolgono valore al suo stesso concetto. La riservatezza è sfidata dai

e di diritto all’oblio,

recenti problemi di privacy, di sorveglianza di massa la trasparenza

dal problema della black box nei sistemi di intelligenza artificiale e dal non dichiarare di

essere o di star usando IA. Infine, il rispetto, da IA non addestrate correttamente. Ora

però, proveremo a dare delle possibili soluzioni ai limiti posti dalla rivoluzione digitale,

per riadattare questi principi all’attualità, cercando di delineare una governance etica per

queste nuove tecnologie. CAPITOLO 3:

Possibili rimedi e governance delle nuove tecnologie

3.1 Tra algoretica e algocrazia

Come abbiamo visto, queste nuove tecnologie sono pervasive nella vita di tutti i

giorni, nella nostra società, la quale è basata sul predominio degli algoritmi, arrivando a

“algocrazia”

parlare di (Aneesh, 2006), ovvero: «il crescente utilizzo degli algoritmi

informatici e dell’intelligenza artificiale al fine di esercitare il controllo su qualsiasi

aspetto della vita quotidiana», secondo la Treccani (2022). Nella sua accezione

una “dittatura degli algoritmi”, ma,

negativa, sbaglieremo a considerarla nel caso,

sarebbe una “dittatura con gli algoritmi” (Floridi e Cabitza, 2021). Il problema è che,

questa tecnologia, non possiamo lasciarla a sé stessa, dato che impatta gli ambiti etici,

dalle disuguaglianze sociali ai problemi di privacy. Per questo è necessaria

un’“algoretica” (Benanti, 2018), un’etica dell’algoritmo, una sorta di guardrail etico,

che tiene la macchina all’interno di una strada, evitando eventi infausti. Abbiamo

bisogno di rivedere l’etica, dato che, oggi ad agire, non siamo solo noi, ma anche le

macchine, intese come agenti etici (Varanini, 2020), quindi capaci di agire e di prendere

decisioni in modo autonomo, comportando così, implicazioni etiche. Dobbiamo essere i

secondo l’etimologia greca (κυβερνήτης),

timonieri di questa tecnologia, kybernetes,

utilizzata per la prima volta da Platone, nell’Alcibiade Primo, nel senso di condurre

qualcosa, una nave, un popolo. Termine che fu poi ripreso da Norbert Wiener quando

una nuova disciplina che integra l’indagine sugli esseri

inventò la cibernetica nel 1968,

viventi e sulle macchine, da cui poi la parola cyber.

è necessario definire un quadro etico riguardo l’intelligenza artificiale, per

Per fare ciò, un’etica e un’etica

poterlo imporre ai produttori. Serve by design in design, ovvero

l’incorporare questi principi sin dalle prime fasi del suo sviluppo, inscrivere valori etici

nelle tecnologie comunicative basate su IA attraverso il loro algoritmo. Per Luciano

l’intelligenza artificiale deve rispecchiare cinque principi etici

Floridi (2022),

fondamentali, di cui i primi quattro sono i principi tradizionali della bioetica, mentre

l’ultimo è un principio nuovo, proprio per l’A.I.:

 benessere dell’umanità e del

Benevolenza: Ogni tecnologia deve promuovere il

pianeta, quindi fare il bene.

 Non maleficenza: Bisogna prevenire i danni nei nostri confronti, ad esempio

l’uso improprio delle A.I. costruite per fini bellici (come i droni) e le violazioni

all’umanità.

della privacy, quindi il non nuocere

 Autonomia (Agency): Preservare il valore della scelta umana per prendere le

decisioni importanti, a discapito della totale autonomia delle macchine. Quindi il

raggiungimento dell’equilibrio tra il nostro potere decisionale e quello delegato

agli agenti artificiali.

 Usare l’A.I. in modo non discriminatorio per determinate categorie di

Giustizia:

persone; quindi, deve creare benefici condivisi per tutti.

 Bisogna sapere come e in che modo l’A.I. opera, e ritenerla

Esplicabilità:

responsabile in caso di un risultato negativo serio.

Figura 14: I 5 principi di Floridi

Fonte: Floridi e Cowls, 2019

Vari stati e organismi sovranazionali stanno cercando di correre ai ripari e di

implementare nuove regolamentazioni per far fronte a questa nuova tecnologia. Adesso

vediamo però, se rispecchiano i principi etici prima delineati.

3.2 Regolamentazioni a confronto che provano a delineare un’etica per l’AI,

Floridi ha confrontato i seguenti documenti

descrivendo per ognuno, quali dei cinque principi sono stati rispettati e quali no, ecco i

documenti:

 “AI

AIUK (2018): in the UK: ready, willing and able?”, rapporto del Comitato

l’intelligenza artificiale della Camera dei Lord del Regno Unito.

per

 Asilomar (2017): Future of Life Institute, durante la conferenza ad Asilomar,

California, sull’AI benefica.

 (2018): Dichiarazione sull’intelligenza artificiale, robotica e sistemi

EGE dell’European Group of Ethics

autonomi,

 IEEE (2017): Ethically Aligned Design: A vision for prioritizing Human

documento dell’Institute

Wellbeing with Autonomous and intelligent Systems,

of Electrical and Electronics Engineers.

 La dichiarazione di Montréal per l’AI responsabile (Università

Montréal (2017):

di Montréal)

 (2018): I principi di partenariato sull’AI (Partership on AI).

Partenariato

 AI4People (Floridi et al., 2018): Venti concrete raccomandazioni per una

“società della buona IA”.

 (2018, 2019): Linee guida etiche per l’AI affidabile, dell’High Level

HLEGAI

Expert Group on Artificial Intelligence.

 Raccomandazione del Consiglio sull’AI dell’OCSE

OCSE/OECD (2019):

(Organizzazione per la cooperazione e lo sviluppo economico).

 (2019): Principi dell’AI di

Pechino Pechino (Beijing Academy of Artificial

Intelligence).

 Rome Call (2020): Rome Call for an AI Ethics (Pontificia Accademia per la

Vita).

Figura 15: Confronto regolamentazioni

Fonte: Floridi e Cowls, 2019

Figura 16: Confronto regolamentazioni aggiornato:

Fonte: Floridi, 2022

Come possiamo vedere AIUK, Asilomar, EGE, Montréal, AI4People, HLEG, OCSE e

Rome Call hanno rispettato tutti e cinque i principi, mentre peccano IEEE, Partenariato

e Pechino.

Ma la tecnologia evolve ogni giorno, e molte di queste regolamentazioni sono datate.

l’AI Act,

Venendo ai giorni nostri, un regolamento di fondamentale importanza è

L’intento è quello di sviluppare e

approvato il 23 marzo 2024 dal Parlamento europeo.

di usare un’IA in modo sicuro, etico e rispettoso dei diritti fondamentali, applicando

sanzioni a chi non si conforma a ciò. È un approccio basato sul rischio, classificando

l’IA in quattro categorie diverse:

 Rischio inaccettabile, come nel caso della sorveglianza biometrica in tempo

reale o del sistema di credito sociale.

 Rischio elevato, come ad esempio i sistemi di reclutamento del personale,

applicazioni giudiziarie e di polizia.

 Rischio limitato, ad esempio le chatbot o le AI che generano contenuti

audiovisivi o che li manipolano, come i deepfake.

 Rischio minimo o nullo, ad esempio usate per scopi ludici o estetici, come i filtri.

Figura 17: I quattro livelli di rischi

Panetta R., Ai act: cos’è e come plasma l’intelligenza artificiale in Europa,

Fonte:

Agenda Digitale, 12/03/2024. https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-

siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/

Però, oltre a legiferare, bisognerebbe far rispettare questi principi etici, e purtroppo

abbiamo visto che ancora nessuna azienda ancora rispetta questi canoni fino in fondo.

Vediamo OpenAI, la più importante ora in questo settore. Nel 2023 è stata denunciata,

insieme a Microsoft, dal New York Times, per violazione di copyright, poi

dall’organizzazione per i diritti digitali Noyb, per via delle informazioni false che può

generare a causa delle sue allucinazioni, violando il GDPR, poi da Elon Musk, che

dell’azienda insieme a lui, non aveva

dichiara che, Sam Altman, co-fondatore

mantenuto la promessa di dare la priorità agli esseri umani invece che ai profitti. Infine,

da alcuni whistleblower interni all’azienda,

anche che la denunciarono alla Securities

and Exchange Commission (Sec), accusando OpenAI di avere delle clausole che

ai suoi dipendenti di parlare male dell’azienda e di segnalare alle autorità

proibirebbero

di regolamentazione i gravi rischi (González, 2024). Questo confermerebbe la storia di

Helen Toner (Tremolada,2024), ex membro del cda, che pubblicò un paper sulla

sicurezza con altri suoi colleghi (Imbrie et al., 2023), dove diceva che era Anthropic ad

avere un approccio migliore, e per questo fu cacciata. Rivelò anche che il board non era

stato avvisato neanche dell’annuncio di ChatGPT, nel novembre 2022, e questo denota

la mancanza di trasparenza della società. Fa riflettere anche che Ilya Sutskever (DI

Stefano, 2024), ex membro del board, e Jan Leike, ex capo del gruppo sul

superallineamento (Superalignment Team) (Lelli, 2024), hanno abbandonato la società

per poi entrare ad Anthropic, suo principale competitor, nato proprio da una divisione di

OpenAI, da Dario e Daniela Amodei, per creare un’AI fondata sulla sicurezza. Poi Sam

Altman sciolse e ricreò il Comitato sulla sicurezza (Safety and Security Committee),

c’era

dove

Dettagli
A.A. 2023-2024
60 pagine
SSD Scienze storiche, filosofiche, pedagogiche e psicologiche M-FIL/03 Filosofia morale

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher niccolo.alfonsi di informazioni apprese con la frequenza delle lezioni di Etica della comunicazione e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Macerata o del prof Simona Antolini.