Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
CAMPI TABELLA
PIVOT, selezioniamo
SIGLA e la trasciniamo
nel RIQUADRO IN
BASSO TRA LE
RIGHE.
Poi, selezioniamo
INCOME e lo
trasciniamo nel
RIQUADRO IN BASSO
TRA I VALORI.
19/04
Esercizio Tableau: SpesaStataleStorico
Per ogni Regione dice nei vari anni (dal 2004 al 2017), quanto la Regione ha speso per abitante in termini di
servizi, strade, sanità…
Per es: Il Piemonte nel 2004 ha speso per ogni abitante 7787,00€. Confronto tra 2004 e 2017, dicendo quale
Regione ha investito di più per i cittadini.
- Si aggiunge una colonna rinominata
“DifferenzaAssoluta” facendo la differenza
=2017-2004, il risultato è l’incremento in
valore assoluto di euro pro capite, in
Piemonte ha incrementato l’investimento pro
capite di servizi per abitanti di 1705,00€
- Percentualmente, quanto vale quell’incremento? Bisogna aggiungere un’altra colonna rinominata
“Differenza%” facendo = (2017- 2004)*100/2004 -> =(P2-C2)*100/C2 e viene fuori 21,90% (nel
Piemonte). - Ordinando però la DifferenzaAssoluta dal più grande al più piccolo, in
questo caso non ci sono grosse differenze, però la regione con 1302,00€ ha
incrementato di poco, ma percentualmente si posiziona abbastanza in alto, è
alla pari di quella che ha incrementato di 2080,00€
- Mappa tematica→ solito ragionamento, inserire nella cartografia il
territorio, Differenza Assoluta, modificare 2 sconosciuti, portare gli indicatori
nell’etichetta, modificare la legenda, poi salvare in tableau public, esportare
l’immagine e inserirla nel documento word e sotto il commento.
➢ Commento, le regioni tendenti al blu scuro sono quelle in cui per ogni
persona, il valore assoluto dell’investimento delle regioni per servizi è stato
più alto, la Regione che ha incrementato maggiormente dal 2004 al 2017 è la
Lombardia. La regione che ha decrementato è la Liguria che rispetto al 2004
ha calato l’investimento pro capite.
BIG DATA
Il termine Big Data indica l'insieme di tecnologie e metodologie per l'analisi di dati massivi con
l'obiettivo di scoprire i legami tra diversi fenomeni e prevedere quelli futuri (fare previsioni).
I big data sono prodotti dai sensori e dai social media come Twitter. Sono disponibili svariati siti e
software che permettono l’analisi di questi dati: ne sono degli esempi siti come Tweetmap o
VisibleTweets, che permettono di selezionare dei tweet realizzati durante un determinato periodo e
riguardanti un determinato argomento, evento, prodotto.
I Big Data possono essere sfruttati per garantire un’alta personalizzazione dei servizi e offrire
suggerimenti tarai sul consumatore; quindi, uno dei maggiori utilizzi è l’aumento della
personalizzazione e l’analisi della performance attuale.
Non sono solo i dati ma sono anche metodi con cui i dati vengono analizzati.
Big data = dati + metodi + tecnologie
Per definire i Big data pensiamo ai nostri comportamenti giornalieri: attività sui social network, click
sui siti web, pagamenti online, sensori connessi, webcam, smartphone interconnessi. Tutto ciò genera
una quantità enorme di dati eterogenei per formato e origine.
Tre sono le caratteristiche fondamentali:
➢ Volume (quantità)
➢ Varietà (forme diverse di dati)
➢ Velocità (frequenza dei dati in arrivo)
L’obiettivo di oggi è avere più dati possibile e mettere a punto delle tecniche che siano in grado di
analizzare i dati in modo da capire le relazioni tra questi indicatori per cercare di fare PREVISIONE
(su arrivi turistici per dare servizi migliori).
La rivoluzione dei Big Data e, in generale, il termine Big Data analytics si riferisce proprio a ciò che si
può fare con tutta questa mole di dati.
In particolare, l'algoritmo capace di trattare così tante variabili in poco tempo e con poche risorse
computazionali.
Nel 2019 solo in Italia ha raggiunto un valore di oltre 1,7 miliardi di euro, con un tasso di crescita del
23% rispetto al 2018 e più che doppio rispetto al 2015.
L’insieme di dati e tecniche, una volta che le metodologie sono state messe a punto, prendono la forma
di informazioni.
Dato = dati
Informazione = dato più evoluto che serve per prendere decisioni
➢ Analytics: processo di analisi di grandi e complesse fonti di dati per scoprire le tendenze, i
modelli, i comportamenti dei clienti e le preferenze del mercato per migliorare le decisioni
aziendali.
➢ Social
➢ IoT
IoT: Internet of Things. IoT Big Data sono totalmente diversi da altri tipi di big data.
- Sono dati che provengono da tutti i device che in qualche modo sono connessi a Internet o hanno una
modalità scambio-dati con Internet o reti non necessariamente pubbliche, ma anche private.
Per avere un quadro chiaro, immaginate una rete di sensori che generano continuamente dati. Nella
produzione, ad esempio, possono essere i valori di temperatura di una particolare parte del
macchinario, così come le vibrazioni, la lubrificazione, l'umidità, la pressione e altro ancora.
IoT big data sono quindi generati da macchine, non da esseri umani, e rappresentano principalmente
un flusso di numeri strutturati, non blocchi di testo.
➔ Sono tutti i dati che vengono generati dalle cose, ovvero motori, sensori di temperatura, bancomat, citofoni
digitali, … tutto ciò che utilizziamo che genera informazioni.
Nel 2020 erano ben più di 50 miliardi di oggetti collegati
ad internet. Sembra impossibile dato che la popolazione
mondiale è più di 7 miliardi di persone ma ogni persona
ha più di un oggetto collegato ad internet (cellulare,
computer, pannelli fotovoltaici, automobili, …) e questi
oggetti collegati generano migliaia di informazioni al
secondo. Il problema non è analizzare questi dati, ma è
→
più richiederli e raccoglierli problemi: acquisizione
dei dati e gestione di una mole enorme di dati
Sono dati che provengono da oggetti non controllati
fisicamente da umani.
Due esempi di big data:
➢ Visibletweets: puoi scegliere l’argomento, cercare e vedere quanti tweet sono stati fatti in
sequenza su quell’argomento
➢ Tweetmap: scarica tweet georiferiti e li rappresenta sulla cartografia. Ogni tweet viene
rappresentato sottoforma di pallino e questi pallini sono differenziati in base al colore che
rappresentano la lingua utilizzata per scrivere tale tweet oppure in base alla sorgente/fonte
(Android, iOS, Instagram, Foresquare, …). In basso a destra viene rappresentato il numero
totale di tweet.
Si possono selezionare i periodi desiderati e anche zoomare. Vedendo così un trend o evento
(coronavirus, terremoto, seaside resort, glamping) posso capire come è l’andamento, cosa si dice. È un
sensore del sentiment delle persone. L’intelligenza artificiale aiuta a leggere cosa le persone dicono
perché è impossibile leggere tutto. In base a cosa vuoi sapere, l’algoritmo dell’intelligenza ti dice ciò
che ti interessa, per esempio cosa piace e no, come sono i commenti, ottenendo dei cluster.
Molte compagnie usano Twitter per capire cosa i clienti dicano del loro prodotto. Le informazioni
postate sui social media diventano un sensore dei sentiment dei clienti. In alcuni paesi, molte persone
parlano del mio prodotto; in altre invece no. Perché? L’unico problema è che per capire davvero cosa
pensano i clienti del mio prodotto, dovrò leggere ogni Tweet. Questo è impossibile se ce ne sono
migliaia: viene in aiuto l’intelligenza artificiale. Ci sono sistemi automatici che ricevono questi tweet
come input e in base a ciò che viene richiesto, l’algoritmo legge le informazioni, li divide in cluster ed
elabora un risultato.
La creazione di una banca dati da Twitter. Ogni giorno circa 190 milioni di utenti attivi di Twitter
pubblicano oltre 500 milioni di tweet (6000 al secondo), di cui il 10% è georeferenzializzato.
L’analisi di queste ingenti quantità di dati richiede l’utilizzo di software di intelligenza artificiale.
Un processo che è possibile fare tramite, ad esempio, l’analisi del tweet è quello della Sentiment
analysis (processo di analisi dei testi digitali per determinare se il tono emotivo del messaggio è
positivo, negativo o neutro), che lavora per l’integrazione di dati di presenza e testi dei tweet, con
l’obiettivo di automatizzare l’analisi dell’opinione delle persone usando tecniche del machine learning.
È possibile sviluppare una app che si connetta al database di Twitter e riceva i tweet postati da quel
momento in poi (ma non quelli passati). Nel laboratorio del prof hanno sviluppato una app per capire
cosa dicessero gli stranieri mentre in FVG. Hanno ottenuto un database di mezzo milione di tweet
realizzati da persone
residenti all’estero mentre erano in Friuli. La app permetteva di inserire delle chiavi di ricerca per gli
attributi disponibili, cioè: testo del tweet, lingua, data e ora, nazione, alias, data creazione utente,
numero
followers, numero di seguiti, coordinate.
Si possono attivare campagne di ascolto di giorni, settimane, mesi, filtrando i tweet che contengono
dei
vocaboli, fatti da persone di una certa età, scritti in una certa lingua, fatti in una certa area.
Esempio TestTweet: tutti i tweet contenenti ‘Friuli’. Posso cercare tweet con ‘amazing’ e ‘food’ e
provare a vedere se ci sono commenti negativi e risolvere.
TWITTER DATA DOWNLOAD
Ogni giorno, circa 190 milioni di utenti attivi pubblicano oltre 500 milioni di tweet→ 6000 al secondo
→ 10% geocodificato.
L'applicazione consente di inserire chiavi di ricerca per gli attributi disponibili nell'API, che sono:
➢ ➢ ➢
Testo del tweet Lingua utilizzata Data e ora
➢ ➢ ➢
Paese della alias Data di creazione
registrazione dell'utente
➢ ➢ ➢
Numero di followers Numero di seguaci Coordinate
È quindi possibile attivare campagne di ascolto per giorni, settimane, mesi filtrando i tweet che:
➢ Contiene alcune parole;
➢ Sono stati realizzati da utenti di una certa nazionalità;
➢ Sono scritti in una certa lingua;
➢ Sono stati pubblicati in una determinata area;
➢ …
Con queste informazioni si può per esempio tramite un’applicazione, Tweets Scrapper, si possono
definire i luoghi e contare i tweet che vengono fatti attorno a quei luoghi in un lasso di tempo definito
da noi.
24/04
Esercizio Tableau: DataGoogleMapsTableau
• L’importante è quello di essere in grado di AGGIUNGERE UNA COLONNA dopo la pop
over 65, tasto destra mouse, inserisci colonna.
• →
- Risolvere un problema di matematica
- Riassumere un testo
- Tradurre una frase
- E molto altro ancora...
Per termini, condizioni e privacy, visita la relativa pagina.