Anteprima
Vedrai una selezione di 7 pagine su 26
Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 1 Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 2
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 6
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 11
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 16
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 21
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Riassunto esame Data Journalism, prof. Antenore, libro consigliato I metodi digitali nella ricerca sociale, Caliandro, Gandini Pag. 26
1 su 26
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Analisi dei co-hashtag per indagare le associazioni semantiche

Non solo profili individuali o pagine possono essere sottoposte a SNA. Tra i vari metadati che si possono utilizzare per seguire il medium, anche gli hashtag possono essere trattati come nodi di una rete, al fine di indagare le associazioni semantiche tra di esse. Questo avviene attraverso co-hashtag analysis, che determina Cluster o gruppi di hashtag più comunemente associati che vengono visualizzati attraverso colori diversi per ciascun cluster. Questa tipologia di analisi è molto utile, dunque, per far emergere le varie sfaccettature di un immaginario culturale a partire da un campione di dati relazionali. Quest'analisi permette di mappare reti semantiche, vale a dire reti che illustrano l'immaginario culturale che soggiace a un determinato evento, brand o attore sociale. Ad esempio, se si vuole fare una raccolta dati dei mille post più recenti contenenti l'hashtag #ikeaItalia su Instagram in un determinato periodo, si utilizza uno script ad hoc chiamato...

Instagram scraper. L'obiettivo dell'analisi è indagare quali sono le principali dimensioni culturali che caratterizzano il brand IKEA su territorio nazionale italiano su Instagram. Inserendo i dati ottenuti su Gephi e li sottoponiamo a clustering analysis, si otterranno 7 Cluster principali: uno definito "home" che racchiude una rete di hashtag strettamente interconnessi tra loro che richiamano l'idea di casa, interior design e home decor (#home, #casa, #homedecor, #design); il secondo riconducibile sotto nome family, dove si trovano riferimenti alla dimensione familiare (#ikeafamily, #famiglia); uno che si può dominare Pets che raggruppa hashtag che mostrano riferimenti al mondo animale in particolare ad animali domestici; uno denominato food che riconduce l'hashtag che mostra un'associazione tra Il brand ikea e il dominio del cibo (#foodporn, #food); uno denominato experience che descrive la dimensione del brand caratterizzata da particolari

elementi materiali, stati d'animo, riferimenti ad eventi, momenti della giornata; uno denominato photography che mostra la relazione semantica tra il brand il mondo della fotografia; è uno che si può chiamare metà che raggruppa i principali hashtag che hanno funzione di socialità sulla piattaforma, come #followforfollow e #instalike.

Una caratteristica sempre più frequente che contraddistingue le piattaforme digitali di consumo di oggetti culturali, come ad esempio musica e video su YouTube e Spotify, è la presenza di algoritmi di raccomandazione, o recommender systems, che suggeriscono in maniera automatizzata agli utenti contenuti di cui fruire in sequenza.

Per studiare i pattern di contenuti correlati che gli algoritmi contribuiscono a costruire esiste una varietà di ready-made tool che offrono al ricercatore la possibilità di campionare reti di video o canzoni tra loro correlati. È il caso, ad esempio, della Spotify artist network,

che offre la possibilità di visualizzare reti di artisti correlati su Spotify. Per far ciò bisogna lanciare il tool appena citato, una volta digitato il nome dell'artista, il sistema ci restituirà una rete costituita da determinati nodi e legami attraverso una visualizzazione di base all'interno del browser. Questi dati noi possiamo importarli in Gephi per produrre una migliore resa grafica. In questo modo possiamo vedere come si dividono i Cluster principali degli artisti vengono correlati da Spotify a quel determinato musicista della nostra ricerca. Capitolo 5 - L'analisi del contenuto Il web 2.0 può essere concepito come una vasta raccolta di testi interconnessi che il ricercatore digitale può navigare, leggere e studiare. Il termine testo è da intendere qui nel suo più ampio significato semiotico di insieme integrato di segni appartenenti a uno o più codici. Nelle scienze sociali, la tecnica di ricerca privilegiata perl suo effetto sui fruitori. Questo approccio si basa sull'utilizzo di dati numerici e statistiche per analizzare il contenuto. D'altra parte, l'analisi del contenuto qualitativa si concentra sulla comprensione approfondita del significato e dell'effetto del materiale comunicativo. Questo approccio si basa sull'interpretazione dei simboli e dei temi chiave presenti nel testo, senza l'utilizzo di dati numerici. Entrambi gli approcci hanno i loro vantaggi e possono essere utilizzati in base agli obiettivi della ricerca e alle domande di ricerca specifiche.l'emergere delle pratiche di analisi del contenuto dall'attività di lettura dei test. Il ricercatore è qui esortato a definire uno schema di codifica il più possibile allineato alle categorie emiche di chi ha prodotto il testo, piuttosto che ad affidarsi a categorie imposte da teorie preesistenti. Il disegno di ricerca dell'analisi del contenuto etnografica prevede fasi procedurali analoghe a quelle dell'approccio quantitativo, tuttavia, le diverse fasi in questo caso sono reversibili e iterative, cioè legate reciprocamente tra loro in una relazione di tipo circolare. L'intento è quello di essere sistematici e analitici ma non rigidi, l'analisi del contenuto etnografica è in costante scoperta e comparazione tra situazioni, contesti, stili, immagini, significati e sfumature. Questa si basa principalmente sulla descrizione e comprensione dei significati che gli attori sociali attribuiscono ai testi, sugli utilizzi pratici che

Ne fanno esulle narrazioni culturali che emergono spontaneamente da essi.

5.2 Software per l'analisi del contenuto

I software per l'analisi del testo sono diventati parte integrante e costitutiva dell'analisi del contenuto. Esistono due principali tipi di software: software for semi automatic analysis of texts (SSAAT); computer aided qualitative data analysis software (CAQDAS). I primi sono più utilizzati nel caso dell'analisi del contenuto quantitativa e sono particolarmente utili per l'esplorazione di lunghi testi i cui significati e temi non sono conosciuti dal ricercatore. Questi supportano il ricercatore nell'esplorazione quantitativa dei testi eseguendo automaticamente una serie di operazioni statistiche, come l'analisi delle occorrenze e co-occorrenze di parole chiave. I secondi sono invece più indicati per l'analisi del contenuto etnografica in quanto agevolano la navigazione e l'organizzazione di testi più brevi con.

significato e temi già conosciuti dal ricercatore. Essi consentono di accelerare e sistematizzare le operazioni di etichettatura, ricerca, comparazione e visualizzazione delle categorie utilizzate per la codifica del testo. 5.3 Combinare analisi del contenuto e metodi digitali L'analisi del contenuto combinata ai metodi digitali presenta due caratteristiche principali: da un lato è una tecnica che trae vantaggio dai tool digitali al fine di estrarre automaticamente dati testuali dalle piattaforme digitali, organizzare questi dati in dataset strutturati ed effettuare operazioni basiche di data management; dall'altro lato è una tecnica che consente ai ricercatori di sfruttare i metadati contenuti nei testi digitali estratti dalle piattaforme on-line, trasformandoli in risorse metodologiche utili a filtrare e campionare i dati testuali e a definire la categoria di codifica. 5.4 L'analisi del contenuto nell'era dei big data Il fenomeno dei Big data è il

Segno distintivo della contemporanea società digitale. Questa mole di dati socio testuali è facilmente accessibile ai ricercatori sociali grazie alla semplice possibilità di costruire o reperire software che raccolgono dati dalle pagine web o che interrogano le API delle piattaforme digitali. Nel loro articolo, Luiss, Zamith e Hermida propongono un interessante approccio per far fronte alla sfida dell'analisi di questa enorme quantità di dati e alla capacità di sfruttare i metodi digitali e le analitiche incorporate nei media digitali stessi. Gli autori suggeriscono che le funzioni strutturali dei nuovi media possono e devono essere sottoposte interamente in maggior misura all'analisi algoritmica, mentre i contesti socioculturali costruiti intorno a queste funzioni necessitano l'attenzione dei metodi manuali. Lewis e colleghi, dunque, sviluppano un progetto di ricerca ad hoc finalizzato ad analizzare le attività Twitter di Andy Carvin.

giornalista che ha avuto un ruolo centrale nellacopertura on-line della primavera araba del 2011. L'intento dei ricercatori era quello distudiare le pratiche di acquisizione delle fonti giornalistiche da parte di Carvin,concentrandosi sugli account Twitter del giornalista, al fine di documentare l'eventualeevoluzione di tali pratiche all'interno di un ambiente digitale. Per prima cosa iricercatori hanno sviluppato uno script con il linguaggio di programmazione Pythonche interrogasse le API di Twitter e raccogliesse i tweet generati dall'account delgiornalista. Attraverso questa operazione essi hanno ottenuto un primo dataset ditweet successivamente incrociato con un secondo dataset fornito direttamente dalgiornalista (egli aveva richiesto e ottenuto da Twitter la lista di tweet da lui pubblicatinel periodo dicembre 2010 settembre 2011). Con questo grande dataset, attraversoun foglio excel, i ricercatori si sono occupati della campionatura dei dati

attraverso procedure natively digital: hanno cioè estratto un campione di tweet non in manieraprobabilistica ma bensì sfruttando i me
Dettagli
A.A. 2019-2020
26 pagine
3 download
SSD Scienze politiche e sociali SPS/08 Sociologia dei processi culturali e comunicativi

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher cecconimarta96 di informazioni apprese con la frequenza delle lezioni di data journalism e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Antenore Marzia.