I materiali pubblicati sul sito costituiscono rielaborazioni personali del Publisher di informazioni apprese con la frequenza delle lezioni e lo studio autonomo di eventuali testi di riferimento in preparazione all’esame finale o della tesi. Non devono intendersi come materiale ufficiale dell’università attribuibile al docente del corso.
…continua

Filtra per

Tutte le tipologie

Ordina

Filtra

Appunti degli studenti per corsi ed esami del Prof. Midiri Mario

Al giorno d'oggi qualsiasi tipo di pensiero o fatto viene digitalizzato attraverso la produzione di un contenuto che viene condiviso su piattaforme online con tutto il mondo; dunque, sorge spontaneo chiedersi come vengano controllati i contenuti caricati in rete e quali siano le leggi o le regole che delimitano la libertà di espressione per la protezione individuale e collettiva dei soggetti attivi in Internet. Si parta da una domanda. Cosa accadrebbe se venisse pubblicata una foto pornografica o un video violento? La risposta è semplice, qualcuno o qualcosa interverrebbe per far sparire quel determinato contenuto e non si tratterebbe solamente di un algoritmo, ma in molti casi di un'azione congiunta di un software e un moderatore umano. In questo lavoro di tesi vengono presentate le varie tipologie di controllo dei contenuti (pre-moderazione, post-moderazione, moderazione reattiva, moderazione distribuita e moderazione automatica) e viene data una visione più da vicino della mansione svolta da un moderatore umano di contenuti online focalizzando le difficoltà che intercorrono nel suo lavoro, compreso il rischio di ricadere in situazioni psicologiche precarie dovute alla pesantezza di un lavoro che, richiede un'attenzione estenuante e un rifacimento alle regole puntiglioso sebbene queste siano pur sempre opinabili essendo basate su una gradazione di gravità dell’illecito commesso non sempre ben definibile. La causa di queste difficoltà ricade spesso sul contesto di riferimento, che l’algoritmo o il moderatore fanno fatica a comprendere a pieno. A dimostrazione del fatto che la content moderation è una problematica di estrema attualità, alla fine del primo cap*itolo è stata poi posta l'attenzione sulla legge sui servizi digitali dell'unione europea (DSA), la quale regola la gestione e la rimozione dei contenuti illegali online e porta diverse novità alle piattaforme, tra cui: la commissione e i paesi dell'unione europea avranno accesso agli algoritmi delle varie piattaforme sulle quali circolano la stragrande maggioranza dei contenuti condivisi online (in qualunque formato); viene stabilita una normativa riguardante la rimozione rapida dei contenuti illegali; maggiori garanzie su diritti e protezione delle vittime di violenza; sanzioni di vario livello per chi commette violazioni ai contratti stretti con le piattaforme; nuovi obblighi di trasparenza; più controllo sulla pubblicità; più protezione dei minori, e tanto altro. Infine, è stato analizzato un caso recente di moderazione dei contenuti nello specifico, il caso che ha portato in tribunale Facebook Ireland Ltd. e l'associazione sociale italiana CasaPound, vittima di una totale cancellazione della propria pagina (quindi di un mezzo potente di comunicazione con i propri sostenitori) per di più senza preavviso. Attraverso questo processo si riuscirà quindi ad evincere quanto sia complicato dare una valutazione giusta ad un determinato caso di violazione dalle condizioni d'uso delle piattaforme, specie se la violazione è commessa da associazioni politiche che richiedono una più vasta possibilità di espressione per rientrare all'interno del dibattito politico nazionale.
...continua