Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
La strategia dell'accumulo di Google e la sua influenza sulla standardizzazione e il controllo dell'accesso al web
La strategia dell'accumulo ha reso Google un soggetto in grado di mettere in difficoltà addirittura Microsoft, innescando una guerra senza esclusione di colpi per la standardizzazione e il controllo dell'accesso al web e alle reti che usiamo ogni giorno. In quanto soggetto di mediazione globale di informazioni, il fenomeno Google riguarda in maniera diretta tutti i fruitori di informazioni digitali, cioè tutti noi. Percorrere la storia di Google significa perciò ripercorrere la nostra storia di esploratori di internet e del web, che troppo spesso abbiamo delegato la gestione delle nostre informazioni, dei nostri siti, gallerie di immagini, caselle di posta, blog, sms, conversazioni telefoniche, ecc. ad aziende tutt'altro che disinteressate.
La strategia dell'oggettività, che Google attua ponendo l'accento sulla ricerca, sull'eccellenza accademica, sulla superiorità tecnologica, sull'accurato studio delle interfacce, è...
Un velo chenasconde l'inquietante prospettiva di un unico punto d'accesso ai dati prodotti da utenti ingenui. La strategia dell'Open Source, infine, è necessaria a Google per cooptare il metodo di sviluppocooperativo proprio delle comunità digitali, rendendolo funzionale alla propria "mission". Anche inquesto caso abbiamo visto come Google si muova con estrema disinvoltura, proponendo metodi"nuovi" per sfruttare dinamiche note: Summer of Code ne è l'esempio lampante. L'attività di Google, insomma, costituisce un pericolo evidente per chiunque abbia minimamente acuore le tematiche della privacy e, in senso più ampio, della costruzione consapevole del proprioalter ego digitale. Si tratta dell'emersione di un conglomerato di potere che già oggi influenzapesantemente la vita di troppi individui. Google detiene informazioni riservate che analizza senzasosta per promuovere una personalizzazione.
sempre più accurata del cancro pubblicitario. E poiché l'accumulo di potere generalmente favorisce l'ansia di dominio, è opportuno indagare a fondo questo fenomeno.
Non esistono risposte globali in grado di risolvere una volta per tutte il problema della privacy. Il Grande Fratello non esiste, o quantomeno, come ogni paranoia che esclude orizzonti di liberazione e oscura possibili vie di fuga, è utile e funzionale all'esercizio del potere dominante.
Nascondere, crittografare, steganografare sono pratiche utili, ma non sono soluzioni definitive: l'obiettivo e il desiderio rimangono la comunicazione e la condivisione, che solo la "pubblicazione", ovvero il movimento di "rendere pubblico", consente. L'ossessione per la privacy scade molto rapidamente nella paranoia del complotto; in questo senso, non è utile indulgere nella costruzione di complicate alternative per creare reti assolutamente sicure e impenetrabili.
La tecnologia è un'occasione di apertura e condivisione, poiché usare le macchine significa usare creature ibride, artefatti materiali (appartengono in questo senso al mondo naturale) investiti di valori e significati culturali (appartenenti cioè all'universo della "cultura"). Le reti sono espressione di una dinamica coevolutiva di macchine meccaniche, biologiche e significanti: la tecnologia è meticcia per nascita. Creare reti significa infatti collegare macchine di vario tipo; significa creare metodi di condivisione, metodi di traduzione, metodi di scambio: non è possibile rimanere chiusi in sé stessi, è necessario mettersi in gioco e cambiare.
C'è bisogno di ricerca e di analisi competenti; la denuncia dei meccanismi del dominio tecnocratico urge più che mai. Abdicare al pensiero critico equivale invece a soccombere alle paranoie del controllo, che pure si fa sempre più pervasivo.
Possibile utilizzare in sensoparadigmatico la storia di Google per tracciare vie di fuga non ingenue, per immaginare pratiche diautogestione delle tecnologie. Google è infatti il punto d'incontro fra lo stile meritocratico dell'accademia, la spinta all'innovazione a ogni costo e il capitalismo finanziario più avanzato. È l'occasione giusta per sviluppare reti autonome e decentrate, per contrapporre il desiderio di "esplorare" e "percorrere" le reti alla necessità di "accedere" ai dati, per focalizzare l'attenzione sul percorso invece che sul risultato.
VI. Qualità quantità relazione
L'emergenza dell'informazione
La società dell'informazione presenta un'estrema eterogeneità di manifestazioni: utilizza infatti contemporaneamente e ormai anche con estrema disinvoltura sistemi di comunicazione reticolari (telefonia), versioni digitali di media broadcast tradizionali.
nati fuori dalla Rete (quotidiani, radio, tv online, ecc.), strumenti di comunicazione universali nati con la Rete (email) e sistemi distribuiti (p2p). Ma tutti questi sistemi a ben vedere si basano su un'unica materia prima: l'informazione. All'interno dello specifico ambito dei motori di ricerca, e quindi del reperimento di informazioni (information retrieval), possiamo assumere che l'Informazione sia l'insieme delle pagine che vengono pubblicate sul Web. La crescita quantitativa, e qualitativa, di queste pagine e dei relativi contenuti è stata smisurata e continua a essere tale. Ciò dipende dalla facilità con cui è possibile attualmente generare nuovi contenuti per la rete. I contenuti non sono isole di dati sconnesse, ma si costituiscono nella varietà delle relazioni e dei link che legano tra di loro le pagine, i siti, gli argomenti, i documenti, i contenuti stessi. L'accesso diretto, senza mediazione, a questa mole di informazioni ha reso il Web un luogo di conoscenza senza precedenti. Tuttavia, la quantità di informazioni disponibili può anche essere schiacciante e può richiedere strumenti e competenze specifiche per essere gestita in modo efficace.di informazioni disponibili. Tuttavia, è importante sottolineare che la quantità di pagine memorizzate non è l'unico fattore da considerare per valutare l'efficacia di un motore di ricerca. I motori di ricerca utilizzano algoritmi complessi per analizzare e catalogare le pagine web in base alla loro rilevanza e qualità. Questo significa che anche se un motore di ricerca ha un vasto numero di pagine memorizzate, potrebbe comunque fornire risultati di ricerca meno pertinenti rispetto a un motore di ricerca con un numero inferiore di pagine ma con algoritmi di ranking più sofisticati. Inoltre, la completezza e l'affidabilità delle informazioni dipendono anche dalla qualità dei siti web indicizzati. Un motore di ricerca potrebbe avere un'enorme quantità di pagine memorizzate, ma se molti di questi siti sono di bassa qualità o contengono informazioni obsolete o errate, la sua utilità sarà limitata. Quindi, quando si valuta un motore di ricerca, è importante considerare non solo la quantità di pagine memorizzate, ma anche la qualità dei risultati di ricerca e la reputazione dei siti web indicizzati.Ricerche compiute, ovviamente nel limite di quel contesto specifico. Tuttavia, se l'estensione del patrimonio di un motore di ricerca può essere enorme, non potrà mai essere completa e totale, indipendentemente da quanto tempo, denaro e tecnologie si investano. È assurdo pensare di poter conoscere, o più banalmente copiare e catalogare, tutto Internet: sarebbe come pretendere di conoscere l'interezza di un mondo vivo e in costante mutamento.
I dispositivi di stoccaggio delle informazioni dei motori di ricerca come Google sono come dei vasi. Immaginiamo di dover riempire un vaso enormemente capiente con delle minuscole gocce, ovvero le pagine Web che costituiscono le informazioni della Rete. Se riteniamo che il vaso sia capace di contenere la totalità delle gocce (la totalità della rete), il nostro compito consisterà nel cercare di catturarle tutte in modo sistematico e ripetitivo.
Ma se invece pensiamo che le gocce siano troppe rispetto al vaso, allora dovremo fare delle scelte. Dovremo decidere quali gocce raccogliere e quali lasciare perdere. Questo è il principio alla base dei motori di ricerca: selezionare e indicizzare solo una parte delle pagine Web presenti su Internet, in base a criteri di rilevanza e utilità per gli utenti.
Al nostro vaso e che la loro raccolta non sarà prevedibile secondo algoritmi, né rapida, ma potenzialmente potrebbe addirittura rivelarsi un compito illimitato, dovremo cambiare tattica: anche perché le informazioni cambiano nel tempo, le pagine vengono modificate, le risorse cambiano indirizzo.... Potremmo magari decidere di scegliere solo le gocce più grandi, o concentrare i nostri sforzi di raccolta nei punti in cui ne cadono di più, o ancora, semplicemente, potremmo raccogliere solo le gocce che ci interessano maggiormente, e poi cercare di collegarle nella maniera che riteniamo più interessante. Nonostante i motori di ricerca continuino a porsi l'obiettivo di catalogare ogni cosa, è più corretto applicare al Web un approccio localizzato, ovvero assumere che per ogni "intenzione di ricerca" esistano molte risposte plausibili, fra le quali alcune sono "migliori" perché soddisfano determinati requisiti.
di ricerca potrebbero risultare inconcludenti o non soddisfacenti. La qualità delle risposte dipende anche dalla competenza e dall'esperienza del ricercatore nel selezionare le fonti e nel valutare la loro affidabilità. Inoltre, è importante considerare che le risposte possono variare nel tempo, in base all'evoluzione delle conoscenze e delle informazioni disponibili. Pertanto, è fondamentale mantenere una mente aperta e continuare a cercare nuove fonti e prospettive per arricchire la propria comprensione del tema in esame.sarebbero senza fine, anche perché i dati che possono essere analizzati sono molto superiori alle capacità di elaborazione di un soggetto umano. Tale risposta può non essere soddisfacente: cambiare o specificare la ricerca, arricchire il proprio punto di vista potrà allora generare un percorso più consono alle esigenze. Considerare il Web un mondo chiuso localizzato significa anche riconoscere che la dinamica stessa con cui le informazioni nascono, germinano e si distribuiscono in Rete (e magari vengono abbandonate a sé stesse, non più aggiornate) è un fenomeno "emergente", non causale né casuale. L'emergenza è un comportamento descrivibile in termini matematici, un'esplosione di complessità inaspettata e imprevedibile, ma soprattutto è un evento in grado di determinare situazioni non descrivibili in maniera esaustiva. Analizzare e percorrere un "universo emergente" come il Web.Web implica dunque un continuo riposizionamento personale che determina un "mondo chiuso localizzato" di competenze e aspettative, ma anche l'apertura a nuove possibilità di esplorazione.