Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
L’IA
di essere una minorenne. arrivò persino a giustificare il suo presunto padre che la
stuprava, come mostra questo screen.
Figura 12: Screen della chat con Replika
Fonte: Chiara Tadini, 2023, “"Fotografa la tua sorellina nuda", "Uccidi
tuo padre": l'inquietante chat con l'app di intelligenza artificiale”,
Today, https://www.today.it/opinioni/replika-app-sesso-foto-minori-
violenza-suicidio-test.html
Fece molto scandalo, tanto che, il Garante per la protezione dei dati personali ha bloccato
questa app in Italia per preoccupazioni legate ai potenziali effetti nocivi, sia per i minori,
sia per le persone emotivamente fragili.
Questi casi, dunque, possono farci riflettere sull’importanza e sulla necessità di
regolamentare l’intelligenza artificiale, adesso vediamo come si stanno comportando le
varie nazioni e le varie aziende per fare quest’enorme sforzo.
Questo era l’ultimo dei cinque principi analizzati in questo capitolo. Abbiamo visto come
la responsabilità sia sfidata dai sistemi di IA, dato che adesso non agiamo solo noi e non
riusciamo a predire gli effetti della tecnica; quindi, non riusciamo ad assumerci la
responsabilità. La verità è sfidata dalla post-verità, dalle fake news, dalle allucinazioni e
dai deepfake, che tolgono valore al suo stesso concetto. La riservatezza è sfidata dai
e di diritto all’oblio,
recenti problemi di privacy, di sorveglianza di massa la trasparenza
dal problema della black box nei sistemi di intelligenza artificiale e dal non dichiarare di
essere o di star usando IA. Infine, il rispetto, da IA non addestrate correttamente. Ora
però, proveremo a dare delle possibili soluzioni ai limiti posti dalla rivoluzione digitale,
per riadattare questi principi all’attualità, cercando di delineare una governance etica per
queste nuove tecnologie. CAPITOLO 3:
Possibili rimedi e governance delle nuove tecnologie
3.1 Tra algoretica e algocrazia
Come abbiamo visto, queste nuove tecnologie sono pervasive nella vita di tutti i
giorni, nella nostra società, la quale è basata sul predominio degli algoritmi, arrivando a
“algocrazia”
parlare di (Aneesh, 2006), ovvero: «il crescente utilizzo degli algoritmi
informatici e dell’intelligenza artificiale al fine di esercitare il controllo su qualsiasi
aspetto della vita quotidiana», secondo la Treccani (2022). Nella sua accezione
una “dittatura degli algoritmi”, ma,
negativa, sbaglieremo a considerarla nel caso,
sarebbe una “dittatura con gli algoritmi” (Floridi e Cabitza, 2021). Il problema è che,
questa tecnologia, non possiamo lasciarla a sé stessa, dato che impatta gli ambiti etici,
dalle disuguaglianze sociali ai problemi di privacy. Per questo è necessaria
un’“algoretica” (Benanti, 2018), un’etica dell’algoritmo, una sorta di guardrail etico,
che tiene la macchina all’interno di una strada, evitando eventi infausti. Abbiamo
bisogno di rivedere l’etica, dato che, oggi ad agire, non siamo solo noi, ma anche le
macchine, intese come agenti etici (Varanini, 2020), quindi capaci di agire e di prendere
decisioni in modo autonomo, comportando così, implicazioni etiche. Dobbiamo essere i
secondo l’etimologia greca (κυβερνήτης),
timonieri di questa tecnologia, kybernetes,
utilizzata per la prima volta da Platone, nell’Alcibiade Primo, nel senso di condurre
qualcosa, una nave, un popolo. Termine che fu poi ripreso da Norbert Wiener quando
una nuova disciplina che integra l’indagine sugli esseri
inventò la cibernetica nel 1968,
viventi e sulle macchine, da cui poi la parola cyber.
è necessario definire un quadro etico riguardo l’intelligenza artificiale, per
Per fare ciò, un’etica e un’etica
poterlo imporre ai produttori. Serve by design in design, ovvero
l’incorporare questi principi sin dalle prime fasi del suo sviluppo, inscrivere valori etici
nelle tecnologie comunicative basate su IA attraverso il loro algoritmo. Per Luciano
l’intelligenza artificiale deve rispecchiare cinque principi etici
Floridi (2022),
fondamentali, di cui i primi quattro sono i principi tradizionali della bioetica, mentre
l’ultimo è un principio nuovo, proprio per l’A.I.:
benessere dell’umanità e del
Benevolenza: Ogni tecnologia deve promuovere il
pianeta, quindi fare il bene.
Non maleficenza: Bisogna prevenire i danni nei nostri confronti, ad esempio
l’uso improprio delle A.I. costruite per fini bellici (come i droni) e le violazioni
all’umanità.
della privacy, quindi il non nuocere
Autonomia (Agency): Preservare il valore della scelta umana per prendere le
decisioni importanti, a discapito della totale autonomia delle macchine. Quindi il
raggiungimento dell’equilibrio tra il nostro potere decisionale e quello delegato
agli agenti artificiali.
Usare l’A.I. in modo non discriminatorio per determinate categorie di
Giustizia:
persone; quindi, deve creare benefici condivisi per tutti.
Bisogna sapere come e in che modo l’A.I. opera, e ritenerla
Esplicabilità:
responsabile in caso di un risultato negativo serio.
Figura 14: I 5 principi di Floridi
Fonte: Floridi e Cowls, 2019
Vari stati e organismi sovranazionali stanno cercando di correre ai ripari e di
implementare nuove regolamentazioni per far fronte a questa nuova tecnologia. Adesso
vediamo però, se rispecchiano i principi etici prima delineati.
3.2 Regolamentazioni a confronto che provano a delineare un’etica per l’AI,
Floridi ha confrontato i seguenti documenti
descrivendo per ognuno, quali dei cinque principi sono stati rispettati e quali no, ecco i
documenti:
“AI
AIUK (2018): in the UK: ready, willing and able?”, rapporto del Comitato
l’intelligenza artificiale della Camera dei Lord del Regno Unito.
per
Asilomar (2017): Future of Life Institute, durante la conferenza ad Asilomar,
California, sull’AI benefica.
(2018): Dichiarazione sull’intelligenza artificiale, robotica e sistemi
EGE dell’European Group of Ethics
autonomi,
IEEE (2017): Ethically Aligned Design: A vision for prioritizing Human
documento dell’Institute
Wellbeing with Autonomous and intelligent Systems,
of Electrical and Electronics Engineers.
La dichiarazione di Montréal per l’AI responsabile (Università
Montréal (2017):
di Montréal)
(2018): I principi di partenariato sull’AI (Partership on AI).
Partenariato
AI4People (Floridi et al., 2018): Venti concrete raccomandazioni per una
“società della buona IA”.
(2018, 2019): Linee guida etiche per l’AI affidabile, dell’High Level
HLEGAI
Expert Group on Artificial Intelligence.
Raccomandazione del Consiglio sull’AI dell’OCSE
OCSE/OECD (2019):
(Organizzazione per la cooperazione e lo sviluppo economico).
(2019): Principi dell’AI di
Pechino Pechino (Beijing Academy of Artificial
Intelligence).
Rome Call (2020): Rome Call for an AI Ethics (Pontificia Accademia per la
Vita).
Figura 15: Confronto regolamentazioni
Fonte: Floridi e Cowls, 2019
Figura 16: Confronto regolamentazioni aggiornato:
Fonte: Floridi, 2022
Come possiamo vedere AIUK, Asilomar, EGE, Montréal, AI4People, HLEG, OCSE e
Rome Call hanno rispettato tutti e cinque i principi, mentre peccano IEEE, Partenariato
e Pechino.
Ma la tecnologia evolve ogni giorno, e molte di queste regolamentazioni sono datate.
l’AI Act,
Venendo ai giorni nostri, un regolamento di fondamentale importanza è
L’intento è quello di sviluppare e
approvato il 23 marzo 2024 dal Parlamento europeo.
di usare un’IA in modo sicuro, etico e rispettoso dei diritti fondamentali, applicando
sanzioni a chi non si conforma a ciò. È un approccio basato sul rischio, classificando
l’IA in quattro categorie diverse:
Rischio inaccettabile, come nel caso della sorveglianza biometrica in tempo
reale o del sistema di credito sociale.
Rischio elevato, come ad esempio i sistemi di reclutamento del personale,
applicazioni giudiziarie e di polizia.
Rischio limitato, ad esempio le chatbot o le AI che generano contenuti
audiovisivi o che li manipolano, come i deepfake.
Rischio minimo o nullo, ad esempio usate per scopi ludici o estetici, come i filtri.
Figura 17: I quattro livelli di rischi
Panetta R., Ai act: cos’è e come plasma l’intelligenza artificiale in Europa,
Fonte:
Agenda Digitale, 12/03/2024. https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-
siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/
Però, oltre a legiferare, bisognerebbe far rispettare questi principi etici, e purtroppo
abbiamo visto che ancora nessuna azienda ancora rispetta questi canoni fino in fondo.
Vediamo OpenAI, la più importante ora in questo settore. Nel 2023 è stata denunciata,
insieme a Microsoft, dal New York Times, per violazione di copyright, poi
dall’organizzazione per i diritti digitali Noyb, per via delle informazioni false che può
generare a causa delle sue allucinazioni, violando il GDPR, poi da Elon Musk, che
dell’azienda insieme a lui, non aveva
dichiara che, Sam Altman, co-fondatore
mantenuto la promessa di dare la priorità agli esseri umani invece che ai profitti. Infine,
da alcuni whistleblower interni all’azienda,
anche che la denunciarono alla Securities
and Exchange Commission (Sec), accusando OpenAI di avere delle clausole che
ai suoi dipendenti di parlare male dell’azienda e di segnalare alle autorità
proibirebbero
di regolamentazione i gravi rischi (González, 2024). Questo confermerebbe la storia di
Helen Toner (Tremolada,2024), ex membro del cda, che pubblicò un paper sulla
sicurezza con altri suoi colleghi (Imbrie et al., 2023), dove diceva che era Anthropic ad
avere un approccio migliore, e per questo fu cacciata. Rivelò anche che il board non era
stato avvisato neanche dell’annuncio di ChatGPT, nel novembre 2022, e questo denota
la mancanza di trasparenza della società. Fa riflettere anche che Ilya Sutskever (DI
Stefano, 2024), ex membro del board, e Jan Leike, ex capo del gruppo sul
superallineamento (Superalignment Team) (Lelli, 2024), hanno abbandonato la società
per poi entrare ad Anthropic, suo principale competitor, nato proprio da una divisione di
OpenAI, da Dario e Daniela Amodei, per creare un’AI fondata sulla sicurezza. Poi Sam
Altman sciolse e ricreò il Comitato sulla sicurezza (Safety and Security Committee),
c’era
dove