Anteprima
Vedrai una selezione di 20 pagine su 109
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 1 Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 2
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 6
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 11
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 16
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 21
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 26
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 31
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 36
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 41
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 46
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 51
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 56
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 61
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 66
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 71
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 76
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 81
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 86
Anteprima di 20 pagg. su 109.
Scarica il documento per vederlo tutto.
Riassunto esame Informatica giuridica, Prof. Durante Massimo, libro consigliato La politica dei dati, Durante Massimo Pag. 91
1 su 109
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Protezione dei dati personali e integrazione del GDPR nelle soluzioni tecnologiche

Infatti, in base al tipo di ADM utilizzato, potrebbe sorgere la necessità di proteggere dal rischio che terzi - a conoscenza delle logiche utilizzate per prendere una decisione - possano manipolare o sfruttare il modello di Al. Può essere il caso di decisioni assistite dall'Al per identificare un illecito (e.g. una frode), per cui l'utilizzatore ha la necessità di limitare le informazioni sulla logica utilizzata da fornire agli interessati, per evitare di essere in seguito ingannato.

Come affrontare le sfide tecnologiche legate all'integrazione dei requisiti legali del GDPR nelle soluzioni tecnologiche? Con il Data Protection By Design And By Default. I titolari del trattamento dovrebbero usare il design tecnologico per creare meccanismi di avviso più efficaci o per permettere agli interessati di esercitare i loro diritti. Non solo il titolare del trattamento dei dati ha il dovere di comunicare una particolare profondità di informazioni, ma

deve anche prestare attenzione a utilizzare scelte di design efficaci per garantire che le informazioni siano sia notate che comprese. Ciò non significa che il diritto individuale alla spiegazione dia agli individui il diritto a tutte le informazioni su un algoritmo. Sappiamo che il diritto alla spiegazione si scontra con ostacoli tecnologici capaci di compromettere la sua fattibilità. Da un punto di vista giuridico, l'impraticabilità di ottenere una spiegazione è un problema da risolvere. Quali sono le conseguenze dell'inattuabilità pratica del diritto alla spiegazione nel sistema del GDPR, alla luce del suo scopo? Il paradigma della trasparenza nel contesto digitale è fallace, a causa delle caratteristiche strutturali dell'ambiente digitale. Se premettiamo che ciò che è precluso è proprio il tipo di spiegazione richiesto dal GDPR (che rende impossibile verificare la liceità e la correttezza del trattamento dei dati),

Cioè lo scopo del GDPR), allora una possibile e logica conseguenza non può essere l'inesistenza del diritto soggettivo e l'inapplicabilità della norma che lo prevede, ma può essere: l'impossibilità giuridica di sottoporre la persona ad un processo decisionale i cui output (volti a incidere sulla sua sfera giuridica) si basano su logiche non verificabili/spiegabili.

Ulteriori conseguenze?

  • Il trattamento dei dati effettuato in assenza delle garanzie previste per la persona sottoposta al processo decisionale può essere illegittimo;
  • La decisione che non può essere spiegata (nel senso richiesto dal GDPR) è inefficace nella sfera soggettiva dell'interessato.

Sostenere il contrario significa implicare che il diritto positivo possa affidare la sfera giuridica e vitale della persona umana al potere della macchina (anche se è richiesto l'intervento umano, vedi WP29), soprattutto quando la macchina si esprime in

virtù didecisioni che non possono essere decostruite per capirne la ratio.Quando è legalmente richiesto di fornire una spiegazione e di accertare le ragioni di undeterminato risultato, l'impossibilità di ottemperare può portare al divieto di utilizzaresistemi opachi.Un esempio è offerto dal caso PNR (causa C-817/19), in cui la CGUE ha valutato laconformità di un sistema PNR alla CFR. In particolare, l'articolo 6, paragrafo 3, letterab), della direttiva PNR prevede che l'Unità d'informazione sui passeggeri (PIU) possa"trattare i dati PNR in base a criteri predeterminati". Il trattamento dei dati PNR in basea criteri predeterminati ha lo scopo di identificare le persone che possono esserecoinvolte in un reato di terrorismo o in un reato grave (articolo 6, paragrafo 2, letteraa), della Direttiva PNR).Dato che i criteri che l'unità d'informazione sui passeggeri può utilizzare a tal

finedevono essere "predeterminati", l'AG ha osservato che tale requisito preclude l'uso di tecnologie di intelligenza artificiale in sistemi di autoapprendimento, in grado di modificare senza intervento umano o revisione il processo di valutazione e, in particolare, i criteri di valutazione su cui si basa il risultato dell'applicazione di tale processo, nonché la ponderazione di tali criteri.

Infatti, tale elaborazione non può essere effettuata per mezzo di sistemi di ML che non consentono di accertare le ragioni che hanno portato l'algoritmo a stabilire una corrispondenza.

Il diritto antidiscriminatorio alla prova degli algoritmi (Mia Caielli)

Kate Crawford metteva in guardia dai rischi insiti nelle letture e nelle risposte che solo una parte dell'umanità (maschile, bianca, benestante) iniziava a proporre, risposte che avrebbero riguardato alcuni pericoli, consistenti nella crescente marginalizzazione di gruppi sociali già

Svantaggiati e nella perpetuazione di stereotipi e pregiudizi di genere che avrebbero contribuito ad allontanare ulteriormente il momento di una democrazia ripensata per due, donne e uomini.

La dottrina giuspubblicistica è impegnata nella riflessione sul costituzionalismo al un sforzo costituente, tempo di internet, ed è giunta a immaginare la necessità di "dato che alcuni cambiamenti tecnologici rischiano di alterare la struttura fondamentale delle società tecnologicamente avanzate e, con esse, sia il modo in cui tali società sono governate o si autogovernano, sia i diritti fondamentali della persona".

Il diritto costituzionale è quello che accusa maggior difficoltà ad evolvere con la società. Il meccanismo di revisione della carta costituzionale è più complicato rispetto ad una legge ordinaria. Il diritto di uguaglianza (art. 3 della Costituzione) ha comportato applicazioni differenti nel corso del tempo:

c'è la necessità di adeguare la carta costituzionale all'impatto delle tecnologie sulla società. Il processo di profilazione, ovvero di raccolta, elaborazione e vendita dei dati personali degli utenti al fine di predirne o orientarne i comportamenti, può determinare problematiche di lesione dei più basilari diritti, come libertà di pensiero, informazione e autodeterminazione nei casi in cui tali dati mirino alla personalizzazione delle ricerche e a proporre agli utenti notizie e pubblicità che rispecchiano le loro preferenze, respingendone la scelta di beni e servizi o limitando l'accesso alle informazioni che non paiono corrispondere alle idee e ai pregiudizi precedentemente manifestati: questo fenomeno è noto come filter bubble, ossia la situazione dell'individuo progressivamente isolato intellettualmente portato ad agire in uno spazio sempre più ristretto da algoritmi che essi nascondono ciò che

presumononon debba interessargli.I sistemi di IA si possono distinguere tra tecnologie di assistenza virtualeautomatizzata, motori di ricerca, algoritmi predittivi e algoritmi usati nella gigeconomy che agiscono nell'ambito dei rapporti di lavoro subordinato.

Le problematiche più comuni dei sistemi di assistenza virtuale riguardano lariproposizione di ruoli di genere tradizionali e stereotipati da parte di assistenti vocaliche hanno nomi e voci femminili (Cortana, Alexa, Siri), addestrati a fornire risposteremissive e civettuole, proponendo e diffondendo un'immagine di donna relegata allavoro domestico quando non comprensiva dinanzi a trattamenti violenti. La diffusionedi questi algoritmi ha dimostrato di generare effetti lesivi della dignità della donna,delle persone di colore e ancor di più delle donne di colore. Si ricorda il caso di Googleche offriva quali risultati della ricerca "ragazze di colore" testi in cui ricorrevano itermini sesso,

pornostar etc., manifestando un processo di oggettivazione e sessualizzazione delle persone di colore di sesso femminile; per portare un esempio di invisibilità delle minoranze di colore, si ricorda il caso del sistema automatico di riconoscimento e descrizione delle immagini usato da Google Images, incapace di riconoscere due ragazzi afroamericani come persone, etichettandoli invece come gorillas.

Con riguardo alle opportunità di accesso al mercato del lavoro non può non ricordarsi il caso dell'algoritmo alla cui creazione Amazon ha lavorato per selezionare i propri futuri dipendenti in modo automatizzato. Dalle prime sperimentazioni era emerso come nella scelta dei candidati migliori le donne erano penalizzate: l'algoritmo si era nutrito di dati non recenti in cui la quasi totalità di lavori era stata svolta da uomini i cui profili avevano rappresentato una sorta di modello da seguire. Il difetto di questo algoritmo era quello di non essere stato allenato

per adeguarsi ai mutamenti intervenuti in ambito occupazionale. È stata innescata una riflessione sulle potenzialità discriminatorie dell'utilizzo delle decisioni automatizzate, che ha visto l'American Civil Liberties Union agire per contestare la legittimità costituzionale della normativa statunitense in materia di reati informatici che avrebbe impedito verifiche e indagini sulle lesioni del principio di eguaglianza operate da sistemi IA. È poi stato reinterpretato il Computer Fraud and Abuse Act per escludere che possa sanzionare penalmente le attività volte a svelare le discriminazioni algoritmiche. Con riferimento alle disparità di accesso al credito derivanti dal credit scoring automatizzato, si menziona il problema dell'inclusione finanziaria degli individui in condizioni di vulnerabilità economica (immigrati, comunità indigene, gruppi etnici etc.). Poiché le banche tendono sempre più spesso a valutare il

merito di credito deipotenziali clienti utilizzando algoritmi che processano dati quali le storie di pagamento,l'attività sui social media, il luogo di residenza etc., è facile assistere a discriminazioni.

Gli effetti prodotti dai sistemi IA che rimandano immagini stereotipate o sessualizzate di donne o scambiano due ragazzi di colore per animali hanno rilevanza per il diritto?

Si tratta di effetti indesiderati che si limitano a suscitare indignazione o sono invece illeciti e sanzionabili?

Il diritto antidiscriminatorio europeo pare attrezzato a contrastare simili fenomeni: viene in considerazione il concetto di molestia, ricompreso dalle equality directives nelle forme di discriminazione vietata. Con riferimento alla razza, la molestia è "comportamento indesiderato adottato per motivi di razza o di origine definita quale etnica e avente lo scopo o l'effetto di violare la dignità di una persona e di creare un clima intimidatorio, ostile, degradante".

umiliante od offensivo ” dalla Direttiva43/2000/CE che vieta le discriminazioni et

Dettagli
A.A. 2022-2023
109 pagine
1 download
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher khadija.chniny di informazioni apprese con la frequenza delle lezioni di Informatica giuridica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi di Torino o del prof Durante Massimo.