Che materia stai cercando?

Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato Big Data - Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, Schönberger e Cukier Appunti scolastici Premium

Riassunto per l'esame di Epistemologia dei nuovi media della prof.ssa Teresa Numerico, basato su appunti personali e studio autonomo del testo consigliato dalla docente Big Data - Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, di Mayer-Schönberger e Cukier.

Esame di Epistemologia dei nuovi media docente Prof. T. Numerico

Anteprima

ESTRATTO DOCUMENTO

4 - Correlazione

•• Inizialmente Amazon non aveva esperti informatici nel proprio staff e vendeva solo libri consigliati dalla

cosiddetta “Amazon’s voice”, ovvero l’insieme dei critici librari di Amazon, considerato i più influenti degli

USA. Solo in seguito Bezos, fondatore e CEO di Amazon, pensa di poter raccomandare libri ai clienti in

base alle preferenze di acquisto di ognuno. A quel punto, gli editor di Amazon (l’Amazon’s voice) sono stati

licenziati, perché il sistema automatico di raccomandazione era più efficiente e generava più vendite. I

sistemi di raccomandazione introdotti da Amazon hanno fatto emergere preziose correlazioni senza

bisogno di conoscere le cause sottostanti (perché uno che ha letto Freud vorrebbe leggere Marx?): sapere

cosa anche se non si sa perché è più che sufficiente.

4.1 - Previsioni e predilezioni

•• Una correlazione quantifica la relazione statistica tra i valori di due dati. Una correlazione è alta se al

variare di un valore varia anche l’altro. Una correlazione è bassa se al variare di un valore l’altro rimane

quasi invariato. È ovvio che anche le correlazioni alte possono non dirci molto, in quanto i due valori

possono variare insieme solo per coincidenza. Quando si parla di correlazioni, si deve parlare di

probabilità, mai di certezza. Le correlazioni posso aiutarci a capire il presente e a prevedere il futuro: se A

avviene spesso in concomitanza con B, per prevedere A dobbiamo tenere d’occhio B. Quando però il

numero dei dati cresce di molto, vediamo anche più correlazioni false, ovvero fenomeni che sembrano

interconnessi, ma che in realtà non lo sono. Il sapere si è evoluto con un processo per tentativi basati su

una ipotesi da verificare (quindi si usavano correlazioni anche prima dei big data). L’analitica previsionale

non spiega la causa di un problema, ma si limita a segnalare l’esistenza di un problema, o l’insorgere a

breve o lungo termine di un problema (potrebbe essere utilissima in medicina).

4.2 - Illusioni e illuminazioni

•• Nel mondo degli small data, le analisi di correlazione avevano però bisogno di una ipotesi, che veniva poi

messa alla prova per essere confermata o confutata. Oggi disponiamo di tutti i dati che vogliamo, quindi le

ipotesi non sono più necessarie per l’analisi delle correlazioni. Con gli small data, poi, l’analisi di

correlazione cercava relazioni lineari, ma molte relazioni possono essere molto più complesse (non è vero

che all’aumentare del reddito aumenta sempre la felicità, perché questa aumenta solo fino a un certo livello

di reddito, dopodiché anche all’aumentare del reddito, la felicità resta costante). Le analisi non-causali ci

aiuteranno a capire il mondo chiedendoci cosa e non perché. La nostra mente ragioni in termini causali:

quando vediamo due eventi che si verificano l’uno dopo l’altro, la nostra mente tende inevitabilmente a

collegarli in termini causali. Secondo Kahneman, professore di psicologia, abbiamo due processi mentali

diversi: uno è rapido e richiede poco sforzo perché ci permette di saltare alle conclusioni in pochi secondi

(spesso ci fa vedere delle causalità immaginarie, interpretando erroneamente il mondo); l’altro è lento e

faticoso, e ci obbliga ad analizzare a fondo una certa questione. Così come il campionamento era una

scorciatoia che usavamo perché non eravamo in grado di processare i dati, la percezione della causalità è

una scorciatoia che usa il cervello per evitare un ragionamento lento e faticoso. Anche la causalità, come

per le correlazioni, non si può provare quasi mai, ma solo dimostrare con un alto grado di probabilità. Gli

esperimenti per far emergere connessioni causali sono però spesso impraticabili o sollevano interrogativi

etici. Le analisi non-causali, come le correlazioni, sono spesso rapide ed economiche. Però attraverso le

correlazioni possiamo farci un’idea delle importanti variabili che poi useremo negli esperimenti finalizzati a

verificare la causalità.

4.3 - Uomini contro tombini

•• Il caso dei tombini esplosivi ci fa capire che i dati vengono usati in forme nuove per risolvere problemi

complessi del mondo reale.

4.4 - La fine della teoria?

•• I big data trasformano il nostro modo di capire e di esplorare il mondo. In futuro la nostra comprensione

sarà guidata più dall’abbondanza dei dati che dalle ipotesi. Nell’era dei big data potremmo non avere più

bisogno di teorie, e limitarci a studiare i dati (è la “fine della teoria”). Questo non è vero, in quanto i big data

hanno un solito fondamento teorico: usano teorie statistiche e matematiche e usano i principi

dell’informatica. Anche quando interpretiamo i dati applichiamo nuovamente delle teorie. La trasformazione

non è data tanto dai nuovi strumenti digitali, ma dal fatto che abbiamo a disposizione molti più dati (perché

stiamo convertendo sempre più aspetti della realtà in dati).

5 - Datizzazione

•• Maury, comandante americano, soprannominato “l’esploratore dei mari”, pubblica The Physical

Geography of the Sea proiettando sulle carte geografiche 1,2 mln di data point: “così, invece di brancolare

nel buio finché le luci dell’esperienza non illumineranno il suo cammino, il giovane marinaio scoprirà di

avere dalla sua l’esperienza di mille navigatori”. Il suo lavoro è stato essenziale per la posa del primo cavo

telegrafico transatlantico. Maury applica il suo metodo anche all’astronomia, scoprendo che Nettuno non

fosse una stella, bensì un pianeta. Maury è stato uno dei pionieri della datification, ovvero l’estrazione di

dati da materiali che si consideravano del tutto privi di valore, e la sua storia ci mostra che l’uso dei dati

preceda la digitalizzazione. Maury ha preso un materiale che sembrava quasi inutile e ne ha estratto delle

informazioni, trasformandole in dati di grandissima utilità. Datizzare un fenomeno significa convertirlo in

forma quantitativa, in modo da poterlo tabulare e analizzare. È tutt’altra cosa rispetto alla digitalizzazione,

che è il processo con il quale si convertono delle informazioni digitali in 0 e 1 del codice binario in modo

che i computer li possano processare. I prerequisiti della datizzazione sono: desiderio di quantificare e

registrare; capacità di quantificare e registrare quello che misuriamo.

5.1 - Quantificare il mondo

•• La capacità di registrare informazioni segna lo spartiacque tra società primitive e società avanzate. Nel

corso dei secoli, la misurazione si è estesa dalla lunghezza e dal peso alla superficie, al volume e al tempo.

Però la misurazione non era ancora ottimizzata per i calcoli (il sistema di calcolo dei romani non era fatto

per l’analisi numerica). Una numerazione alternativa è stata sviluppata in India nel I secolo d.C. e poi è

stata tramandata agli arabi, che l’hanno perfezionata: è il sistema dei numeri arabi ancora oggi in uso. Con

l’adozione dei numeri arabi, la matematica dà un nuovo significato ai dati, che adesso si possono anche

analizzare e non solo archiviare e recuperare. La datizzazione si è sviluppata perché l’umanità ha sempre

desiderato misurare la realtà e registrarne i dati, ma in un mondo analogico è una attività costosa sia in

termini di denaro sia di tempo. L’avvento dei computer ha messo a disposizione strumenti di misurazione e

archiviazione digitale che hanno reso la datizzazione molto più efficiente, e ha facilitato di molto l’analisi

matematica dei dati, con la quale possiamo scoprirne il valore nascosto. Insomma: la digitalizzazione

mette le ali alla datizzazione, ma non la sostituisce (la digitalizzazione in sé non datizza).

5.2 - Quando le parole si trasformano in dati

•• Per capire la differenza tra digitalizzazione e datizzazione, pensiamo alla scannerizzazione dei libri in

digitale fatta da Google: digitalizzare i libri trasforma una pagina cartacea in una immagine digitale di quella

pagina, ma solo con la datizzazione quella immagine digitale si “trasforma” in testo. La datizzazione ha

reso i testi indicizzabili e quindi setacciabili. La datizzazione rende anche molto più facile scoprire il plagio.

A questo punto, le parole diventano fossili racchiusi nelle pagine, e gli esperti di culturomica possono

scavare al loro interno come fossero archeologi. Amazon usa i dati provenienti dai libri digitalizzati solo per

vendere quei libri, mentre Google li usa anche e soprattutto per migliorare il suo traduttore.

5.3 - Quando la posizione si trasforma in dati

•• La geolocalizzazione è una informazione, che per essere veramente utile deve essere convertita in dati.

La standardizzazione della longitudine e della latitudine come formati universali per condividere le

informazioni di geolocalizzazione ha richiesto molto tempo. Negli anni Quaranta viene creato il sistema di

coordinate UTM (proiezione universale trasferta di Mercatore), che divide il mondo in 60 zone per

migliorare la precisione. Un cambiamento sostanziale si è avuto nel 1978 quando è stato lanciato il primo

dei 24 satelliti che formano il Global Positioning System (GPS). Quando la posizione viene datizzata,

emergono nuovi usi e si può creare nuovo valore.

5.4 - Quando le interazioni si trasformano in dati

•• Il concetto di datizzazione è alla base degli attuali social network: prendono elementi intangibili della

nostra vita quotidiana e li trasformano in dati che si possono usare per fare nuove cose. Con Twitter è

possibile datizzare le emozioni. La datizzazione consiste nel convertire in forma analizzabile non solo

atteggiamenti e sentimenti, ma anche il comportamento umano, molto difficile da rilevare in altri modi.

5.5 - La datizzazione di tutto quanto

•• L’entusiasmo per “l’internet delle cose” (inserimento di sensori in oggetti di uso quotidiano) ha a che fare

con il networking, ma soprattutto con la datizzazione di tutto ciò che ci circonda. Il progetto della

datizzazione rivaleggia con gli acquedotti romani e con l’Encyclopédie degli Illuministi, e produrrà

cambiamenti radicali nella società. Il fatto di vedere il mondo come una massa di informazioni da esplorare

ci offre una prospettiva sulla realtà che prima non avevamo.

6 - Valore

•• Alla fine degli anni Novanta, gli spambot riempivano chat e forum di spam, così Von Ahn ha inventato i

captcha, qualcosa di facile per gli umani, ma di difficile per le macchine. In seguito Von Ahn ha inventato i

reCaptcha, formati anche da una parola scannerizzata e che doveva essere digitalizzata e datizzata: è

importante il riutilizzo dei dati. Nell’era dei big data, tutti i dati verranno considerati preziosi di per sé. Oggi, i

dati si possono raccogliere passivamente, senza grossi sforzi da parte di chi li crea, spesso anche a sua

insaputa, il tutto a basso costo. Il valore dei dati non diminuisce quando vengono usati, in quanto si

possono riprocessare all’infinito. Le informazioni sono perciò un bene “non competitivo”: il fatto che una

persona le usi non impedisce a un’altra di usarle, in quanto le informazioni non si logorano come fanno i

beni materiali.

6.1 - Il valore opzionale dei dati

•• Si prendono informazioni generate per uno scopo e le si riutilizzano per un altro; si dice allora che i darti

passano da usi primari a usi secondari. Il valore dei dati va calcolato in base a tutti i possibili modi con cui

si potrebbero impiegare in futuro, e non semplicemente in base all’uso che se ne fa attualmente. Tre modi

efficaci per liberare il valore opzionale dei dati: riutilizzo, fusione dei dataset e identificazione delle

possibilità di estensione.

6.2 - Riutilizzo dei dati

•• A volte il valore non deriva dai singoli data point, ma da ciò che rivelano nel loro insieme. Anche le

informazioni più anali potrebbero avere un valore particolare, se impiegate nel modo giusto. Per esempio,

gli operatori di telefonia mobile sanno esattamente dove e quando i telefoni si collegano alle stazioni radio,

conoscendo anche la forza del segnale. Possono usare questi dati per migliorare la performance dei propri

network oppure potrebbero venderli ai produttori di telefoni per aiutarli a capire che cosa influenza la forza

del segnale, per esempio per migliorare la capacità di ricezione dei loro apparecchi.

6.3 - Dati ricombinanti

•• A volte il valore nascosto dei dati può uscire allo scoperto solo combinando un dataset (un insieme di

dati) con un altro, anche del tutto diverso (per esempio lo studio sull’incidenza di tumori presso gli

utilizzatori di telefoni cellulari; per questo studio si sono uniti vari dataset: dati degli operatori sugli abbonati

in Danimarca, registro nazionale dei pazienti oncologici delle autorità sanitarie e registro nazionale con i

dati sul titolo di studio e il reddito disponibile di ogni cittadino danese). Alla fine si è scoperto che non esiste

correlazione tra tumore e uso dei telefoni cellulari.

6.4 - Dati estensibili

•• Per facilitare il riuso dei dati bisognerebbe renderli strutturalmente flessibili sin dall’inizio. Si tratta di

cercare delle possibilità di estensione, così i dati possono crescere di valore (se si raccolgono con certe

modalità che permettono ai dati di prestarsi a vari scopi).

6.5 - Ammortizzare il valore dei dati

•• Quasi tutti i dati perdono una parte della propria utilità con il passare del tempo: continuare a fare uso di

dati obsoleti non solo non crea valore aggiunto, ma azzera anche il valore dei dati più recenti (se Amazon

suggerisse un libro in base a un acquisto fatto dieci anni fa, è molto probabile che non intercetti più i nostri

interessi). Ogni azienda quindi deve ripulire continuamente i suoi archivi ed eliminare le informazioni che

hanno perso valore. Ma come si fa a capire quali dati non sono più utili? Non tutti i dati si deprezzano con

lo stesso ritmo o allo stesso modo. Anche se il valore dei dati diminuisce per alcuni dei loro scopi, il loro

valore opzionale potrebbe rimanere elevato. Bisogna stabilire dunque dei “tassi di ammortamento”.

6.6 - Il valore dei dati a perdere

•• Google ha costruito il suo correttore ortografico a costo zero, riusando gli errori di digitazione inseriti sul

suo motore di ricerca (3mld di ricerche al giorno: “forse cercavi…?”). Il correttore ortografico di Google si

automigliora in continuazione, quindi gli utenti non si preoccupano più di digitare correttamente le parole

chiave. Questo sistema di correzione ortografica dimostra che anche dati “difettosi” possono essere

comunque molto utili. Quando gli utenti indicano a un programma di riconoscimento vocale che ha frainteso

le parole pronunciate, in realtà “insegnano” al sistema a migliorarsi.

6.7 - Il valore dei dati aperti

•• Google ed Amazon non sono i pionieri dei big data. I primi a raccogliere dati su vasta scala sono stati

chiaramente i governi. Una differenza tra imprese e governi è che i secondi possono costringere i cittadini a

fornire loro delle informazioni, invece di doverli persuadere. Il valore dei dati è nascosto e richiede una

analisi innovativa per essere liberato. Comunque i governi si sono dimostrati spesso incapaci a usare

intelligentemente i dati. Ultimamente si crede che il miglior modo per estrarre valore dai dati in possesso

del governo sia consentire al settore privato, o ancora meglio alla società in generale, di accedervi

liberamente: quelli che vogliono questo sono i sostenitori degli “open data”, che chiedono al governo di

divulgare i propri dati per fini sia sociali sia commerciali. Obama nel 2009, appena insediatosi, diffonde una

nota in ci ordina alle agenzie federali di pubblicare il maggior numero possibile di dati: “nel dubbio, prevale

la trasparenza”: queste informazioni sono presenti nel sito data.gov. Grazie agli open data anche chi non

raccoglie dati può ugualmente usare dati raccolti dal governo per creare valore.

6.8 - Stimare l’inestimabile

•• Quando facebook è entrato in borsa, valeva 104mld di dollari, mentre il suo valore contabile (a livello

fisico, di strutture, ma non di dati) era di appena 6mld. Infatti, il metodo usato di solito per stimare il valore

di una azienda, che è fondato sul valore contabile, non riflette più il valore effettivo (il valore di mercato).

L’incapacità di stimare correttamente il valore delle imprese crea anche rischio commerciale e volatilità di

mercato. La differenza tra il valore contabile e il valore di mercato di una azienda è misurata dagli “asset

intangibili” (ovvero brand, talento, strategia, dati… tutto ciò che non è fisico e non rientra nel sistema

formale di contabilità finanziaria). In futuro il valore dei dati verrà esposto in bilancio e costituirà una nuova

categoria di asset (quando non ci saranno preoccupazioni per la responsabilità giuridica). Siccome il valore

dei dati è soprattutto latente (nascosto) e deriva da usi secondari futuri ancora ignori, non è chiaro come si

possano stimare. È certo che cominciano a formarsi delle economie intorno ai dati. Il valore dei dati sta

essenzialmente nel loro potenziale di riutilizzo, apparentemente illimitato. Il valore dei dati risiede

nell’utilizzo, non nel mero possesso.

7 - Implicazioni

•• decide.com è nata da una idea di Etzioni per prevedere i prezzi per un’infinità di prodotti di largo

consumo. Su internet i prezzi cambiano costantemente per tutta la giornata in base a molti fattori, quindi

l’azienda doveva raccogliere in continuazione dati sul prezzo. Ciò che rende unica decide.com è l’idea:

questa azienda ha una mentalità orientata ai big data. Certi dati si possono estrarre e analizzare per far

emergere preziosi segreti. Tre tipologie di aziende: azienda che punta sui dati (non è detto che abbia le

competenze per estrarre valore dai dati o per generare idee creative su ciò che vale la pena rivelare),

azienda che punta sulle competenze (data specialist, che possiede competenze e tecnologie e svolge

materialmente il lavoro, ma probabilmente non ha né dati né ingegno per escogitare l’uso più creativo dei

dati; processa solo dati per sviluppare un’idea, e dati e idea sono di un’altra azienda) e azienda che punta

sulle idee (ha un orientamento culturale verso i big data e sa vedere le opportunità prima degli altri).

7.1 - La catena del valore nei big data

•• L’essenza dei big data sta proprio nelle informazioni. Molte aziende che possiedono dati, li danno in

licenza ad altre aziende senza usarli. Le aziende Visa e MasterCard possiedono moltissimi dati che

possono analizzare o rivendere. Cross ha creato Prispatic, che aggrega e classifica contenuti ricavati da

tutto il web in base all’analisi del testo, alle preferenze degli utentii, allla popolarità nei social e

all’applicazione ai big data di tecniche analitiche. Gli imprenditori orientati all’uso dei big data non hanno i

dati quando avviano la propria attività, ma proprio per questo non hanno nemmeno gli interessi acquisiti o i

costi finanziari che potrebbero impedire loro di dare sfogo alle proprie idee. Le aziende di telefonia mobile

raccolgono molti dati, ma sono spesso culturalmente incapaci di comprenderne il valore; potrebbero

comunque darli in licenza ad altri soggetti, in grado di estrarne del valore innovativo (come ha fatto Twitter).

Google e Amazon sono aziende che hanno sia i dati, sia le competenze sia l’approccio culturale (le idee) ai

big data. Ma Google e Amazon usano i dati in modo diverso: Google li usa anche per utilizzi secondari

(auto per Street View sia per le mappe sia per testare sistemi di guida automatica), Amazon soprattutto per

utilizzi primari.

7.2 - I nuovi intermediari dei dati

•• Oggi la leadership sul valore ce l’ha chi ha l’orientamento culturale giusto, le idee innovative. Oggi, nelle

prime fasi della nuova era dei big data, le idee e le competenze sembrano avere il massimo del valore, ma

alla fine questo valore tornerà proprio nel possesso dei dati, perché si capirà meglio il valore potenziale di

questi. Nasce però una nuova figura, quello dell’intermediario di dati, colui che raccoglie i dati da più onti, li

aggrega e li usa per scopi innovativi, perché a volte il valore di alcuni dati si può estrarre solo tramite la loro

intermediazione. La capacità previsionale aumenta all’aumentare dei dati: Inrix dà informazioni sul traffico

acquisendo ed elaborando dati che provengono da molteplici veicoli e telefoni delle più variate marche.

L’analisi del traffico può a sua volta misurare la salute delle economie locali, fornire indicazioni sulla

disoccupazione, sulle vendite al dettaglio e sulle attività svolte nel tempo libero (la presenza di un maggior

numero di auto in una zona commerciale si correla con un incremento delle vendite). La condivisione dei

dati ha permesso alle compagnie di individuare dei trend che non avrebbero potuto riconoscere all’interno

dei più piccoli dataset individuali. Il valore sta passando nelle mani di chi controlla i dati.

7.3 - La fine dell’esperto

•• Stiamo assistendo alla perdita di influenza degli esperti in tantissime aree (Maury non prende per oro

colato quello che raccontavano su una certa traversata i marinai, ma credeva alle verità pratiche rivelate

dall’aggregazione dei dati). I super esperti non spariranno del tutto, ma la loro supremazia si attenuerà. I

giochi online (come FarmVille) permette all’azienda di analizzare i dati sull’uso e di modificare i giochi in

base all’utilizzo effettivo. “La nostra è una azienda di analitica travestita da produttore di videogames”. Le

aziende che usano grandi masse di dati hanno un importante vantaggio competitivo.

7.4 - Una questione di utilità

•• I grandi detentori di dati prospereranno raccogliendo e immagazzinando altra materia prima per la

propria attività, che potranno riusare per creare nuovo valore aggiunto. Le piccole imprese possono

prendere in licenza i dati invece di acquistarli direttamente, effettuando l’analisi su economiche piattaforme

di cloud computing e pagando il diritto di licenza con una percentuale del reddito incassato. Ma siccome il

valore dei dati diventa sempre più evidente, le persone potrebbero in futuro reclamare i propri diritti sulle


ACQUISTATO

11 volte

PAGINE

9

PESO

123.11 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze della comunicazione
SSD:
A.A.: 2017-2018

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher simone.scacchetti di informazioni apprese con la frequenza delle lezioni di Epistemologia dei nuovi media e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Roma Tre - Uniroma3 o del prof Numerico Teresa.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Epistemologia dei nuovi media

Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato L'abisso dei social media - Nuove reti oltre l'economia dei like, Lovink
Appunto
Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato L'umanista digitale, Fiormonte, Tomasi, Numerico
Appunto
Riassunto esame Epistemologia dei nuovi media, prof.ssa Numerico, libro consigliato L'abisso dei social media - Nuove reti oltre l'economia dei like, Lovink
Appunto
Riassunti per esame di logica + esercizi, prof. Abrusci, Università Roma tre,
Appunto