vuoi
o PayPal
tutte le volte che vuoi
COSA FANNO I MOTORI DI RICERCA?
- Raccolgono i dati.
- Elaborano e catalogano i dati raccolti.
- Rilevano delle ridondanze, cioè se l'informazione è duplicata.
- Rilevano la presenza di Spamming, cioè se le informazioni sono di poco valore o qualità.
- Reperiscono e analizzano le informazioni per il calcolo del Ranking, cioè per vedere ciò che è considerato più o meno interessante, in funzione della ricerca e di chi lo fa.
- Elaborano le risposte alle interrogazioni degli utenti.
MA COME RIESCONO A FARE TUTTO QUESTO I MOTORI DI RICERCA?
La ricerca delle informazioni è efficiente grazie ai SEO (Search Engine Optimization) = tutte le attività di ottimizzazione di contenuti, con l'obiettivo di migliorare il posizionamento nei risultati organici dei motori di ricerca.
E come fanno a raccogliere i dati? Grazie ai CRAWLER. CRAWLER (o spider, robot): è un software che analizza i contenuti di rete o di un database.
In modo automatizzato, per conto di un motore di ricerca.
Nel effettua l'analisi web questo programma (bot o script) si basa su una lista di URL fornita dal motore di ricerca. Esso identifica tutti i collegamenti ipertestuali presenti nel documento e li aggiunge alla lista di URL da visitare.
Essi vengono indirizzati nel file "robots.txt" (aiutano internet a mettere i motori di ricerca sulla buona strada) nella root del sito; qui è possibile indicare quali pagine non devono analizzare.
Spider Traps mirano ad intrappolare i software per far svolgere il loro lavoro. Mancanza di standard condivisi e rispettati: è vero che parliamo di web semantico ma è anche vero che convivono molte informazioni con molte strutture diverse. Aggiornamento frequente delle pagine: sposta motori di ricerca rispetto alla ricerca vera delle informazioni, a un continuo monitoraggio di ciò che è "buona strada" e dove i vari siti.
Possono succedere molte cose in rete. I file robot.txt sono quei file che aiutano a mettere il motore di ricerca sulla pagina, permettendo di vedere le directory. Possono limitare il tempo in cui viene visitato il sito e/o in cui circolano questi robot.
Ranking: dato un insieme di pagine P e una query Q, il ranking è definito da una funzione:
La funzione associa ad ogni pagina un numero reale che indica la rilevanza di quella pagina nel contesto di quella query (interrogazione/ricerca). PAGE RANK
La parte relazionale della rete è evidenziata dall'analisi dei link. L'importanza di una pagina è direttamente proporzionale al numero di pagine che la puntano.
A COSA SERVE IL PAGE RANK?
- Includere tutte le caratteristiche che la rete mette a disposizione
- Evitare che le ricerche siano compromesse da fattori non connessi al contenuto della pagina
- Non falsare le ricerche
NASCITA DI GOOGLE
Ideato dal matematico Edward Kasner nel 1938. Il 27 settembre 1998 ci fu un errore nella trascrizione.
Invece di scrivere googol scrissero Google e fu così che nacque il motore di ricerca Google caratterizzato da:
- Ricerca 2.0 in tempo reale (real time);
- Google trends (informazioni più ricercate);
- Social media marketing (SMM).
"Filter bubbles": ogni individuo si trova all'interno di una serie di bolle che filtrano tutte le sue ricerche e filtrano il web; queste bolle sono contenute in una bolla più grande che rappresenta i siti più frequentati. È importante tenere conto di dove viene passata l'ultima ora (social network, rete, testate giornalistiche); l'importanza dei contenuti è data dagli utenti; gli ambienti sociali influenzano sempre di più il web e il suo funzionamento; i risultati esprimono opinioni, giudizi e commenti (WEBsumer: consuma ma produce e influenza ciò che succede sulla rete).
ALGORITMI PRINCIPALI DI GOOGLE:
⇢GOOGLE PANDA Navneet Panda - 2011:
- PENALIZZA i siti che hanno contenuti di bassa qualità e con molta pubblicità; quelli poco navigabili e con una grafica poco gradevole;
- SCOPO: penalizzare i siti che hanno un contenuto di bassa qualità e che sono presenti nei motori di ricerca solo perché utilizzano tecniche SEO e hanno come unico obiettivo far cliccare gli utenti sui Banner Pubblicitari;
- sites in Google's search nel blog di GOOGLE, che pone PARAMETRI I non dichiarati ma evinti dal concetto di high-quality domande, tra cui:
o La pagina è scritta da una persona esperta o entusiasta che conosce bene l'argomento o è scritto in modo superficiale?
o Questo sito contiene errori ortografici, stilistici o di contenuto?
L'articolo ha un'eccessiva quantità di annunci che distraggono o che interferiscono con il contenuto della pagina?
Raccomanderesti quest'articolo?
Il sito presenta contenuti duplicati, simili o ridondanti?
GOOGLE PENGUIN:
- SCOPO: Google colpisce i siti che utilizzano tecniche di Black Hat, come la link building (utilizzo di link ingannevoli o profili ingannevoli) per posizionare un sito.
- Quali sono i parametri?
- Link innaturali (più "pericolosi"):
- Scambio link: A linka B e B linka A, metodo utilizzato in passato.
- Guest posting: lasciare sul blog di qualcun altro un nostro "articolo", firmato. Questa pratica è stata usata in passato senza problemi, ma ultimamente è entrata nella lista nera di Google.
- Footer link: inserimento nel footer a siti esterni è palesemente un link non naturale dato che di solito il testo del link è inserito nel corpo del testo.
- Widget link: sono quelle strategie per le quali un sito distribuisce un pezzo di codice (widget) da mettere su altri siti. Solitamente nel pezzo di codice è inserito un backlink al sito di origine, magari con anchor text ottimizzato.
- Categorie di sito:
Se un sito di Immobili linka un sito che parla di gioielli può essere un campanello di allarme dato che potrebbe essere un link innaturale (tematiche completamente differenti).
GOOGLE HUMMINGBIRD (=colibrì):
- Utilizza delle attività dell'utente per trovare le risposte alle richieste di geolocalizzazione, considerando il contesto in cui si trova l'utente. Si tratta del PRIMO ALGORITMO INTERPRETATIVO che serve a dare risposte alle domande specifiche anche se non sono ben poste.
- Utilizza il RANK BRAIN:
- Sistema di intelligenza artificiale e machine learning utilizzato per elaborare ed ordinare i risultati di ricerca.
- Caratteristiche:
- Algoritmo interpretativo
- Agisce in tempo reale
- Comprende le intenzioni di ricerca dell'utente indipendentemente dalla Keyword
- Utilizza relazioni semantiche per valutare gli argomenti e non le parole chiave
"Il piccione torna sempre a casa" - GOOGLE PIGEON
(= piccione) 2011 -● cresce l'importanza dellaindirizzato alle imprese locali; posizione geografica e delle pagine Google+ e Google My Business.⇢GOOGLE FRED Gary Illyes- 2017● ogni aggiornamento è definito FRED.● ⇢Penalizza le fake news, contenuti bufala, risultati offensivi o violenti, sovra-ottimizzazione e keyword stuff (=imbottitura di parolechiave).● questo aggiornamento (2017) viene chiamato da Google BROAD CORE ALGORITHM UPDATE;○ ha colpito molte pagine in ambito medico ⇢ MEDIC UPDATE;○ colpisce pagine che sono YM YL = Your money, Your life, ovvero le pagine che potrebbero avere un impatto sulla felicità, sulla salute, sulla stabilità finanziaria o sulla sicurezza degli utenti⇢GOOGLE BERT Jacob Devlin - 2018= Bidirectional Encoder Representation from Transformation, si basa su :● ⇢RETI NEURALI algoritmi che si uniscono per individuare gli algoritmi di pattern recognition, i quali permettono di categorizzare le immagini,
Riconoscere la scrittura a mano;
● ⇢ELABORAZIONE DEL LINGUAGGIO NATURALE permette di distinguere il contesto dalle parole della Query (si chiede: in chesenso? in che ambito?).
L' OBIETTIVO del NPL è di consentire al computer di comprendere il modo in cui gli esseri umani comunicano con linguaggio naturale [in ogni lingua] – NaturalBERT è una tecnica di pre-formazione per l'elaborazione del linguaggio naturale (NLP Language Processing) sviluppata da Google.
KEY WORDS:
- SOCIAL Network e Media; collegamenti e percorsi
- UTENTI E INFORMAZIONE Catalogazione, diffusione e ricerca
STRUTTURA, TEMPI E MODI DELL'INFORMAZIONE
- Algoritmi di ricerca; accesso e generazione delle informazioni
GRAFICA E INTERATTIVITÀ= strettamente legati alle modalità con cui la rete si presenta e con cui interagisce con gli utenti. Importante è concetto di MULTIMEDIALITÀ:
★ TECNICAMENTE: compresenza di una pluralità di diverse risorse
tecnologiche; ★ approccio SEMIOTICO: compresenza di più canali comunicativi (fondam. quello visivo); ○ SEMIOTICA: scienza generale dei segni, comprende: pragmatica, semantica, sintattica L' comprende l'IPERMEDIALITÀ l'un l'altro). INTERATTIVITÀ (gestione di diversi media che fungono da strumento La GRAFICA è una rappresentazione che non è solo immagine, non è solo decorativa ma è significativa (es - comprende quali sono imodi attraverso i quali un segno comunica). LA COGNETICA= permette di comprendere quali sono i meccanismi di interazione tra uomo e artefatti, informazione e struttura➔ "ergonomia della mente dell'informatico" "Interfacce a misura d'uomo";⇢Jef Raskin la definisce nel suo libro◆ questo concetto venne analizzato da Kenneth Frank Mu