Anteprima
Vedrai una selezione di 3 pagine su 10
Riassunto esame Fondamenti di informatica, Prof. Poletti Giorgio, libro consigliato Emotion Driven Design, Valentina Di Michele,Anddrea Fiacchi Pag. 1 Riassunto esame Fondamenti di informatica, Prof. Poletti Giorgio, libro consigliato Emotion Driven Design, Valentina Di Michele,Anddrea Fiacchi Pag. 2
Anteprima di 3 pagg. su 10.
Scarica il documento per vederlo tutto.
Riassunto esame Fondamenti di informatica, Prof. Poletti Giorgio, libro consigliato Emotion Driven Design, Valentina Di Michele,Anddrea Fiacchi Pag. 6
1 su 10
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

COSA FANNO I MOTORI DI RICERCA?

- Raccolgono i dati.

- Elaborano e catalogano i dati raccolti.

- Rilevano delle ridondanze, cioè se l'informazione è duplicata.

- Rilevano la presenza di Spamming, cioè se le informazioni sono di poco valore o qualità.

- Reperiscono e analizzano le informazioni per il calcolo del Ranking, cioè per vedere ciò che è considerato più o meno interessante, in funzione della ricerca e di chi lo fa.

- Elaborano le risposte alle interrogazioni degli utenti.

MA COME RIESCONO A FARE TUTTO QUESTO I MOTORI DI RICERCA?

La ricerca delle informazioni è efficiente grazie ai SEO (Search Engine Optimization) = tutte le attività di ottimizzazione di contenuti, con l'obiettivo di migliorare il posizionamento nei risultati organici dei motori di ricerca.

E come fanno a raccogliere i dati? Grazie ai CRAWLER. CRAWLER (o spider, robot): è un software che analizza i contenuti di rete o di un database.

In modo automatizzato, per conto di un motore di ricerca.

Nel effettua l'analisi web questo programma (bot o script) si basa su una lista di URL fornita dal motore di ricerca. Esso identifica tutti i collegamenti ipertestuali presenti nel documento e li aggiunge alla lista di URL da visitare.

Essi vengono indirizzati nel file "robots.txt" (aiutano internet a mettere i motori di ricerca sulla buona strada) nella root del sito; qui è possibile indicare quali pagine non devono analizzare.

Spider Traps mirano ad intrappolare i software per far svolgere il loro lavoro. Mancanza di standard condivisi e rispettati: è vero che parliamo di web semantico ma è anche vero che convivono molte informazioni con molte strutture diverse. Aggiornamento frequente delle pagine: sposta motori di ricerca rispetto alla ricerca vera delle informazioni, a un continuo monitoraggio di ciò che è "buona strada" e dove i vari siti.

Possono succedere molte cose in rete. I file robot.txt sono quei file che aiutano a mettere il motore di ricerca sulla pagina, permettendo di vedere le directory. Possono limitare il tempo in cui viene visitato il sito e/o in cui circolano questi robot.

Ranking: dato un insieme di pagine P e una query Q, il ranking è definito da una funzione:

La funzione associa ad ogni pagina un numero reale che indica la rilevanza di quella pagina nel contesto di quella query (interrogazione/ricerca). PAGE RANK

La parte relazionale della rete è evidenziata dall'analisi dei link. L'importanza di una pagina è direttamente proporzionale al numero di pagine che la puntano.

A COSA SERVE IL PAGE RANK?

  • Includere tutte le caratteristiche che la rete mette a disposizione
  • Evitare che le ricerche siano compromesse da fattori non connessi al contenuto della pagina
  • Non falsare le ricerche

NASCITA DI GOOGLE

Ideato dal matematico Edward Kasner nel 1938. Il 27 settembre 1998 ci fu un errore nella trascrizione.

Invece di scrivere googol scrissero Google e fu così che nacque il motore di ricerca Google caratterizzato da:

  • Ricerca 2.0 in tempo reale (real time);
  • Google trends (informazioni più ricercate);
  • Social media marketing (SMM).

"Filter bubbles": ogni individuo si trova all'interno di una serie di bolle che filtrano tutte le sue ricerche e filtrano il web; queste bolle sono contenute in una bolla più grande che rappresenta i siti più frequentati. È importante tenere conto di dove viene passata l'ultima ora (social network, rete, testate giornalistiche); l'importanza dei contenuti è data dagli utenti; gli ambienti sociali influenzano sempre di più il web e il suo funzionamento; i risultati esprimono opinioni, giudizi e commenti (WEBsumer: consuma ma produce e influenza ciò che succede sulla rete).

GOOGLE

SERP (Search Engine Results Page): come vengono mostrati i risultati; UGC (User Generated Content): come vengono analizzati i contenuti generati dagli utenti. Grazie ai motori di ricerca è stata creata la tabella dei fattori di successo. I fattori SEO influenzano il posizionamento di un sito web sono suddivisi in: - fattori ON-THE PAGE: sono sotto il controllo degli editori; - Fattori OFF-THE-PAGE: non dipendono direttamente dal sito stesso; essi dipendono da altri siti web. I fattori SEO sono composti da altre CATEGORIE: - CONTENT: relativi alla qualità dei contenuti; - ARCHITECTURE: relativi alla funzionalità del sito; - HTML: specifici delle pagine web; - relativi all'affidabilità e all'autorevolezza TRUST: del sito; - LINK: come i link impattano sul posizionamento; - PERSONAL: come la personalizzazione dei risultati delle ricerche impatta sul ranking; - SOCIAL: relativi a come le azioni sui social impattano sul posizionamento.

ALGORITMI PRINCIPALI DI GOOGLE:

⇢GOOGLE PANDA Navneet Panda - 2011:

  • PENALIZZA i siti che hanno contenuti di bassa qualità e con molta pubblicità; quelli poco navigabili e con una grafica poco gradevole;
  • SCOPO: penalizzare i siti che hanno un contenuto di bassa qualità e che sono presenti nei motori di ricerca solo perché utilizzano tecniche SEO e hanno come unico obiettivo far cliccare gli utenti sui Banner Pubblicitari;
  • sites in Google's search nel blog di GOOGLE, che pone PARAMETRI I non dichiarati ma evinti dal concetto di high-quality domande, tra cui:

o La pagina è scritta da una persona esperta o entusiasta che conosce bene l'argomento o è scritto in modo superficiale?

o Questo sito contiene errori ortografici, stilistici o di contenuto?

L'articolo ha un'eccessiva quantità di annunci che distraggono o che interferiscono con il contenuto della pagina?

Raccomanderesti quest'articolo?

Il sito presenta contenuti duplicati, simili o ridondanti?

GOOGLE PENGUIN:

  • SCOPO: Google colpisce i siti che utilizzano tecniche di Black Hat, come la link building (utilizzo di link ingannevoli o profili ingannevoli) per posizionare un sito.
  • Quali sono i parametri?
    • Link innaturali (più "pericolosi"):
      • Scambio link: A linka B e B linka A, metodo utilizzato in passato.
      • Guest posting: lasciare sul blog di qualcun altro un nostro "articolo", firmato. Questa pratica è stata usata in passato senza problemi, ma ultimamente è entrata nella lista nera di Google.
      • Footer link: inserimento nel footer a siti esterni è palesemente un link non naturale dato che di solito il testo del link è inserito nel corpo del testo.
      • Widget link: sono quelle strategie per le quali un sito distribuisce un pezzo di codice (widget) da mettere su altri siti. Solitamente nel pezzo di codice è inserito un backlink al sito di origine, magari con anchor text ottimizzato.
    • Categorie di sito:

Se un sito di Immobili linka un sito che parla di gioielli può essere un campanello di allarme dato che potrebbe essere un link innaturale (tematiche completamente differenti).

GOOGLE HUMMINGBIRD (=colibrì):

  • Utilizza delle attività dell'utente per trovare le risposte alle richieste di geolocalizzazione, considerando il contesto in cui si trova l'utente. Si tratta del PRIMO ALGORITMO INTERPRETATIVO che serve a dare risposte alle domande specifiche anche se non sono ben poste.
  • Utilizza il RANK BRAIN:
  • Sistema di intelligenza artificiale e machine learning utilizzato per elaborare ed ordinare i risultati di ricerca.
  • Caratteristiche:
    • Algoritmo interpretativo
    • Agisce in tempo reale
    • Comprende le intenzioni di ricerca dell'utente indipendentemente dalla Keyword
    • Utilizza relazioni semantiche per valutare gli argomenti e non le parole chiave

"Il piccione torna sempre a casa" - GOOGLE PIGEON

(= piccione) 2011 -● cresce l'importanza dellaindirizzato alle imprese locali; posizione geografica e delle pagine Google+ e Google My Business.⇢GOOGLE FRED Gary Illyes- 2017● ogni aggiornamento è definito FRED.● ⇢Penalizza le fake news, contenuti bufala, risultati offensivi o violenti, sovra-ottimizzazione e keyword stuff (=imbottitura di parolechiave).● questo aggiornamento (2017) viene chiamato da Google BROAD CORE ALGORITHM UPDATE;○ ha colpito molte pagine in ambito medico ⇢ MEDIC UPDATE;○ colpisce pagine che sono YM YL = Your money, Your life, ovvero le pagine che potrebbero avere un impatto sulla felicità, sulla salute, sulla stabilità finanziaria o sulla sicurezza degli utenti⇢GOOGLE BERT Jacob Devlin - 2018= Bidirectional Encoder Representation from Transformation, si basa su :● ⇢RETI NEURALI algoritmi che si uniscono per individuare gli algoritmi di pattern recognition, i quali permettono di categorizzare le immagini,

Riconoscere la scrittura a mano;

● ⇢ELABORAZIONE DEL LINGUAGGIO NATURALE permette di distinguere il contesto dalle parole della Query (si chiede: in chesenso? in che ambito?).

L' OBIETTIVO del NPL è di consentire al computer di comprendere il modo in cui gli esseri umani comunicano con linguaggio naturale [in ogni lingua] – NaturalBERT è una tecnica di pre-formazione per l'elaborazione del linguaggio naturale (NLP Language Processing) sviluppata da Google.

KEY WORDS:

  • SOCIAL Network e Media; collegamenti e percorsi
  • UTENTI E INFORMAZIONE Catalogazione, diffusione e ricerca

STRUTTURA, TEMPI E MODI DELL'INFORMAZIONE

  • Algoritmi di ricerca; accesso e generazione delle informazioni

GRAFICA E INTERATTIVITÀ= strettamente legati alle modalità con cui la rete si presenta e con cui interagisce con gli utenti. Importante è concetto di MULTIMEDIALITÀ:

★ TECNICAMENTE: compresenza di una pluralità di diverse risorse

tecnologiche; approccio SEMIOTICO: compresenza di più canali comunicativi (fondam. quello visivo); SEMIOTICA: scienza generale dei segni, comprende: pragmatica, semantica, sintattica L' comprende l'IPERMEDIALITÀ l'un l'altro). INTERATTIVITÀ (gestione di diversi media che fungono da strumento La GRAFICA è una rappresentazione che non è solo immagine, non è solo decorativa ma è significativa (es - comprende quali sono imodi attraverso i quali un segno comunica). LA COGNETICA= permette di comprendere quali sono i meccanismi di interazione tra uomo e artefatti, informazione e struttura➔ "ergonomia della mente dell'informatico" "Interfacce a misura d'uomo";⇢Jef Raskin la definisce nel suo libro◆ questo concetto venne analizzato da Kenneth Frank Mu
Dettagli
Publisher
A.A. 2022-2023
10 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher hafssa72 di informazioni apprese con la frequenza delle lezioni di Fondamenti di informatica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Ferrara o del prof Poletti Giorgio.