Anteprima
Vedrai una selezione di 8 pagine su 32
Appunti Web Marketing prof Costa Pag. 1 Appunti Web Marketing prof Costa Pag. 2
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Appunti Web Marketing prof Costa Pag. 6
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Appunti Web Marketing prof Costa Pag. 11
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Appunti Web Marketing prof Costa Pag. 16
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Appunti Web Marketing prof Costa Pag. 21
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Appunti Web Marketing prof Costa Pag. 26
Anteprima di 8 pagg. su 32.
Scarica il documento per vederlo tutto.
Appunti Web Marketing prof Costa Pag. 31
1 su 32
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

SERP

Dispositivo Desktop/Mobile: Se io faccio la stessa ricerca da due dispositivi diversi (desktop e mobile) la SERP cambia. In particolar modo, la SERP da mobile tiene maggiormente conto della localizzazione geografica e del profilo personale dell'utente. Il presupposto del mobile è che il dispositivo mobile è utilizzato da una sola persona, di conseguenza, i risultati di ricerca da mobile tendono ad essere più personalizzati, che vengono influenzati dalla posizione in cui si trova l'utente al momento della ricerca.

I risultati della SERP sono composti da rimandi alla Homepage e a pagine interne del sito; questi rimandi interni si chiamano SiteLink. Quando un contenuto è popolare, Google sulla sinistra fornisce una scheda composta da una foto e da una breve descrizione che, volendo, potrebbe già essere sufficiente. Questa scheda si chiama Graph. Google inoltre differenzia i risultati in news, immagini, video, shopping. La pagina di Google

comprende anche risultati con annunci a pagamento (traffico non organico), anch'esssiclassificati in base a chi, secondo lui, è andato incontro maggiormente alle aspettative dell'utente e nonin base a chi ha pagato di più l'advertising. L'inserzionista che investe maggiormente in pubblicità nonorganica (a pagamento) su Google è Booking.com che investe annualmente 1,3 miliardi.Il singolo risultati della SERP si compone:
  • Title della pagina
  • URL della pagina
  • Breve descrizione del contenuto (Snippet)
Tutto ciò che viene fatto a livello di SEO in pagine è:
  • Classificarsi il più in alto possibile
  • Rendere il proprio contenuto chiaro e comprensibile all'utente
Fattori di Ranking: Determinare i fattori che determinano il ranking non è semplice, poiché né Google né gli altri motori di ricerca rendono noti i propri meccanismi di funzionamento ed i propri algoritmi, di conseguenza laSEO è una scienza che procede per metodo induttivo. Fare SEO significa osservare casi specifici per dedurre le regole generali di funzionamento, inseguendo dei cambiamenti che, nei loro dettagli, non sono noti. I cambiamenti di Google sono continui e non sono resi noti. Chi è più bravo a scoprire i cambiamenti di Google ha un vantaggio competitivo. Mediamente Google cambia il proprio algoritmo 3 volte al giorno. Secondo l'opinione più diffusa i fattori di Ranking più importanti, in ordine di importanza, sono (risultati di un sondaggio di un campione di esperti SEO): - Autorevolezza del dominio: Un dominio, più è vecchio e più è autorevole. - Link a livello di pagina - Qualità a livello di keywords e di contenuti: ciò che si fa a livello di pagina per rendere coerente il contenuto con le chiavi di ricerca - Performance di traffico: Google, a parità degli altri fattori, premia il sito con più traffico.

traffico

Popolarità sui social media a livello di pagina http://moz.com è un portale dove vengono pubblicati aggiornamenti e sondaggi sul SEO (Lezione 4)

I cambiamenti nei meccanismi di indicizzazione nei motori di ricerca

Dietro ai meccanismi di Google ci sono una serie di meccanismi computazionali, tuttavia nel 2013 Google ha introdotto un metaalgoritmo, chiamato hummingbird dietro al quale dipendono tutti gli altri.

Si suppone che Google per l'indicizzazione tenga conto di circa 200 fattori, non tutti ugualmente importanti, ognuno dei quali è un algoritmo alla base dei quali c'è hummingbird. I più importanti tra questi algoritmi sono:

  • Page rank (1998): Ha cambiato i meccanismi del motore di ricerca. Il nome deriva da uno dei fondatori di Google, Larry Page (l'altro fondatore è Sergei Bean) che, per l'invenzione di questo algoritmo ha implementato un algoritmo (Hyper Search) formulato nel 1997 da un ricercatore italiano

Dell'università di Padova. Il brevetto di page rank è di proprietà dell'Università di Stanford dove studiavano i fondatori di Google all'epoca dell'invenzione. Page Rank calcola l'autorevolezza di un dominio, il fattore di ranking considerato più importante. Page Rank determina un numero che, più alto è, più alto è il posizionamento del suo nei motori di ricerca. Per determinare questo numero, l'algoritmo va a verificare i backlink che rimandano a quel documento. (Es; i backlink del sito http://unipv.eu sono tutti i link presenti in rete che rimandano a http://unipv.eu). I backlink sono i link esterni che un documento riceve. Ai fini dell'autorevolezza del dominio, però, Google, però, non si limita a contare numericamente i backlink, ma calcola l'autorevolezza di ciascuno dei backlink. Per avere un buon ranking, quindi dobbiamo avere non solo tanti backlink, ma tanti di qualità.

Esistono anche backlink che Google considera di pessima qualità che determinano una perdita di autorevolezza, distruggendo il pagerank del sito che li riceve. In sostanza bisogna ottenere backlink positivi e non ottenerne negativi. Dance e Florida (2003): Questi algoritmi sono stati inseriti per combattere il fenomeno del keyword stuffing. La keyword è la parola chiave che utilizza l'utente nella sua ricerca. Se al posto di una singola parola chiave, l'utente inserisce nel motore una stringa di parole chiave, dà un istruzione più dettagliata sulla sua ricerca. L'algoritmo di Google lavora sul numero di occorrenze della parola chiave, quindi più volte appare la parola chiave e migliore sarà il posizionamento della pagina. Però, non sempre un contenuto che contiene meno volte la parola chiave è meno importante di un documento in cui la parola chiave compare più volte. Chi faceva SEO nei primi anni, peringannare questo algoritmo inseriva un'innumerevole quantità di volte la parola chiave principale del documento per avere un posizionamento più alto. Per contrastare questo fenomeno Google ha iniziato a considerare le variabili morfologiche del lemma (singolare, plurale, maschile, femminile ecc...) ed il campo semantico in cui è inserita. Non comprendendo il linguaggio naturale Google tiene conto, quindi, del numero di occorrenze, del posizionamento delle occorrenze (se la parola chiave è all'inizio e si ripete nel titolo è più probabile che il documento riguarda ciò che noi cerchiamo) e delle occorrenze delle parole appartenenti allo stesso campo semantico (meringata: meringate, meringa, zucchero). Il keyword stuffing è la ripetizione eccessiva delle parole chiave, si suppone che una corretta keyword density (numero di occorrenze della parola chiave) sia del 3%. Una corretta keyword density, però, dipende anche da: - La

popolarità della parola chiave (se la nostra parola chiave è molto più utilizzata, lakeyword density sarà più importante)

La rilevanza della keyword density rispetto ai contenuti del documento

Naturalità nella distribuzione della keyword density (es; un documento in cui le parole chiave sono concentrate tutte all'inizio del documento, viene considerato da Google innaturale)

Austin (2004): Il fine di questo algoritmo è disincentivare i fenomeni di blackhat come ad esempio:

  • Nascondere le parole chiave mettendole dello stesso colore dello sfondo o non visibili
  • Inserire le parole chiave in font molto piccoli, non visibili
  • Inserire parole chiave popolari non coerenti con la ricerca

NoFollow (2005): L'attributo NoFollow inserito in un link del codice html fa sì che Google non conteggi quel link ai fini del Page Rank. Quando tra due siti c'è un eccessivo scambio di backlink Google potrebbe penalizzare il loro PageRank.

l'obiettivo di NoFollow è impedire questo.

LocalMaps (2005): Google introduce la personalizzazione su base geografica della ricerca dell'utente

Universal Search (2007): La convergenza di news, immagini, video, mappe in un unica pagina di ricerca

Autocomplete (2007): il suggerimento in tempo reale del completamento della parola che stiamo digitando. Google suggerisce le parole chiave più popolari. Il rischio è l'influenza da parte delle ricerca dalle ricerche di altri utenti. Più un suggerimento viene cliccato e più esso apparirà ad altri utenti.

Caffeine (2009): Riguarda la capacità di indicizzazione in tempo reale di un documento da parte di Google. Nonostante Google affermi che l'indicizzazione avviene in tempo reale, non sempre è così. Il Page Rank influenza i tempi di indicizzazione.

Social Signal (2010): È l'algoritmo che valorizza il numero di menzioni sui Social Network,

In particolare Facebook, ai fini dell'indicizzazione. È un fattore che pesa meno rispetto al Page Rank e ad altri fattori. Inizialmente questo algoritmo favoreggiava Facebook ma oggi, essendo che Google e Facebook sono competitor non è più così.

Panda (2011): È la penalizzazione di un'eccessivo scambio di backlink su base naturale.

Freshness (2011): Premia i contenuti aggiornati frequentemente. Per questo chi ha un blog è importante che lo aggiorni quotidianamente, ed anche di più.

Penguin (2012): Nel 2012 per disincentivare l'utilizzo degli altri social network, Google ha lanciato il proprio Social Network Google Plus (che si rivelerà un fallimento). A questo fine, Google ha deciso di premiare i contenuti condivisi sul suo social network. Ha inoltre implementando le funzionalità degli algoritmi precedenti.

Pigeon (2014): Google rende i risultati di ricerca più coerenti con la posizione.

geografica,implementando quanto già fatto  Mobilegeddon (2015): Google, rendendosi conto che più della metà degli utenti naviga da smartphone, ha deciso di penalizzare i contenuti incompatibili con una fruizione mobile. Questo algoritmo valuta la qualità della fruizione mobile. Nonostante l'allarmismo creato, l'impatto reale di questo algoritmo non è stato così notevole.  RankBrain (2015): È un algoritmo di intelligenza artificiale che cerca di capire il contesto semantico complessivo in cui la keyword si trova e valutare la qualità del contenuto in base alla coerenza complessiva del campo semantico. È importante, quindi, nella creazione di un contenuto utilizzare sia la parola chiave e sia sinonimi. (Lezione 5) 2 SEO ON PAGE Comprende tutte quelle operazioni compiute a livello di pagina per migliorare la posizione nei motori di ricerca. Se l'obiettivo del SEO fosse solo fare in modo che il pubblico incontri

ciò di cui ha bisogno attraverso la medicazione dei motori di ricerca, allora sarebbe sufficiente solamente ottimi

Dettagli
A.A. 2019-2020
32 pagine
SSD Scienze politiche e sociali SPS/08 Sociologia dei processi culturali e comunicativi

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher aleferrari2097 di informazioni apprese con la frequenza delle lezioni di Web marketing e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Pavia o del prof Costa Paolo.