Internet ci rende stupidi? Io e HAL
Negli ultimi anni ho cominciato ad avere la sgradevole sensazione che qualcuno o qualcosa stesse armeggiando con il mio cervello. La mia mente non se ne sta andando, ma sta cambiando. La mia mente si lasciava catturare dal racconto o dalla complessità di un ragionamento, oggi non ci riesco quasi più. Credo di sapere cosa stia succedendo. Da più di 10 anni trascorro ormai molto tempo su Internet. Il Web è una manna per uno scrittore come me. Ricerche che una volta richiedevano giorni interi tra gli scaffali delle biblioteche ora si possono fare in pochi minuti. La Rete è diventata il mio medium multiuso, il canale per la maggior parte delle info che scorrono attraverso gli occhi e le orecchie per arrivare alla mente.
Google, dichiara Pringle, “è una straordinaria fortuna per l’umanità, avendo raccolto e concentrato in un unico luogo idee e info che un tempo erano sparpagliate per il mondo, praticamente impossibili da recuperare”. Come osserva Thompson “con la sua capacità di ricordare perfettamente, la memoria al silicio può essere un grande aiuto per il pensiero”.
L’aiuto è reale, ma ha un prezzo. Come sosteneva McLuhan, i media non sono semplici canali per le info, non solo forniscono materia al pensiero, ma modellano anche il processo del pensare. Più si usa il Web, più si deve lottare per riuscire a concentrarsi su testi lunghi.
Anche Bruce Friedman, che ha un blog sull’utilizzo dei computer in medicina, ha descritto come Internet sta alterando le sue abitudini mentali: “Ho ormai quasi completamente perso la capacità di leggere e di assimilare un articolo lungo sia su carta sia sul Web”.
Esperienze personali e opinioni
Davis, studente dottorando in Comunicazione alla Cornell ricorda quanto, negli anni Novanta, mostrò a un’amica come usare un browser per il Web. Racconta quanto fosse “sorpreso” e “irritato” dal fatto che lei si fermasse a leggere i testi nei siti su cui capitava.
Karp, Friedman e Davis sembrano piuttosto ottimisti riguardo al deterioramento della loro capacità di lettura e di concentrazione. Tutto sommato, dicono, i benefici che si hanno dall’utilizzo della Rete, compensano la perdita della loro capacità di stare seduti tranquilli a sfogliare le pagine di un libro o di una rivista.
Karp è arrivato a convincersi che leggere una quantità di piccoli frammenti collegati fra loro online sia un modo più efficace di ampliare i propri orizzonti mentali che non leggere “libri di 250 pagine”. Davis riflette: “Internet forse mi ha reso un lettore meno paziente, ma credo che sotto molti aspetti mi abbia anche reso più intelligente. Friedman dice che “non è mai stato più creativo” di quanto si senta ora e attribuisce questo “al mio blog e all’abilità di scorrere e di esaminare tonnellate di info sul Web”.
Tutti e 3 sono ben consci di aver sacrificato qualcosa di importante, ma non tornerebbero indietro. Per alcuni, la sola idea di leggere un libro sembra ormai fuori moda. O’Shea dice “non leggo libri, vado su Google e posso assorbire velocemente le info più importanti. Non è un buon uso del mio tempo leggere lunghi capitoli di un testo quando bastano un minuto o due per individuare i passi rilevanti usando Google”. O’Shea sembra essere la regola, non l’eccezione.
Effetti sui giovani
Nel 2008 una piccola società di consulenza e ricerche, la nGenera, ha realizzato uno studio per verificare gli effetti di Internet sui giovani. L’azienda ha intervistato circa seimila membri di quella che viene definita “Net Generation”, ovvero i ragazzi che sono cresciuti usando la Rete. Scrive: “L’immersione digitale ha alterato anche il modo in cui viene assimilata l’informazione. I giovani non leggono più necessariamente una pagina da sinistra a destra e dall’alto in basso, ma saltellano di qua e di là, scorrendo superficialmente alla ricerca di info di interesse”.
La gente usa Internet in tutti i modi possibili. Alcuni sono ansiosi di sperimentare le nuove tecnologie. Ad altri non importa molto di essere all’avanguardia ma si trovano comunque online per la maggior parte del tempo. La Rete è diventata essenziale per il loro lavoro, la scuola o la vita sociale, spesso per tutti e tre questi aspetti. Sembra che siamo arrivati, come aveva previsto McLuhan, a un punto critico nella nostra storia intellettuale e culturale, un momento di transizione tra due modalità di pensiero molto diverse. Quello che stiamo barattando per le ricchezze della Rete è ciò che Karp chiama “il nostro vecchio processo di pensiero lineare”.
Io e la tecnologia
Il computer HAL 9000 nacque il 12 gennaio 1992. Io sono nato nel 1959. Quando ricordo immagini da piccolo mi sembrano estranee, come fotogrammi di un vecchio film. Nel 1977 nacque la Apple Computer, e mi trasferii nel New Hampshire per frequentare il Dartmouth College, che non sapevo, ma era da tempo un pioniere e un punto di riferimento nell’uso dei computer in ambito accademico e aveva avuto un ruolo determinante nel rendere facilmente disponibile agli studenti e agli insegnanti la capacità di calcolo delle macchine. Il presidente del college, Kemeny, era stato l’inventore del primo linguaggio di programmazione a utilizzare parole di uso comune e regole di sintassi conosciute.
Al centro dell’area dell’Università si poteva scorgere la grigia costruzione a un piano in cemento armato che ospitava il Kiewit Computer Center, dove si trovavano i due computer della scuola, nei quali girava il pioneristico Dartmouth Time-Sharing System, una primitiva tipologia di Rete che consentiva a decine di persone di usare i computer simultaneamente. Di solito perdevo tempo giocando a uno di quei primi rudimentali e un po’ sciocchi giochi. Era solamente una piccola distrazione digitale. Mi preparavo per gli esami nelle affollate sale di lettura. Nonostante fossi circondato da decine di migliaia di libri, non ricordo di aver provato la sensazione di ansia sintomatica tipica di quello che oggi chiamiamo “sovraccarico informatico”. C’era qualcosa di tranquillizzante nella reticenza di tutti quei libri.
Era il 1986 quando presi uno dei primi computer Macintosh della Apple, un Mac Plus dotato di un piccolo schermo bianco e nero. Il Plus aveva la doppia funzione di computer da casa e da ufficio. Ogni giorno me lo trascinavo negli uffici della società di consulenza in cui lavoravo come redattore. Ogni sera lo riportavo a casa dove mettevo insieme in qualche modo semplici database usando la geniale applicazione HyperCard, che allora veniva proposta insieme a ogni Mac. Ideato da Bill Atkinson, uno dei più creativi programmatori della Apple, comprendeva un sistema ipertestuale che anticipava l’aspetto del World Wide Web.
Il computer era più di un semplice strumento in grado di fare ciò che gli si chiedeva. Era una macchina che, in modi impercettibili, esercitava un’influenza su di noi. Le cose cambiarono ancora di più quando acquistai un modem, intorno al 1990. Fino ad allora il Plus era stata una macchina autosufficiente, le sue funzioni si limitavano a quelle dei software che installavo sul disco fisso. Quando lo collegai ad altri computer attraverso il modem esso acquisì una nuova identità e un nuovo ruolo. Diventò un mezzo di comunicazione, uno strumento per trovare, organizzare e condividere le informazioni.
Alla metà degli anni Novanta, mi lasciai intrappolare nel “ciclo degli upgrade”. Comprai un nuovo computer che richiedeva versioni aggiornate della maggior parte dei programmi che usavo e poteva far girare ogni tipo di software con prestazioni multimediali. Nel giro di pochi anni comprai un altro computer nuovo. Il mio datore di lavoro, nel frattempo, aveva bandito i Mac a favore dei PC Windows e quindi usavo due sistemi diversi, uno a casa e un altro al lavoro. Fu in quel periodo che cominciai a sentir parlare di una cosa chiamata Internet, una misteriosa “rete di reti” che avrebbe “cambiato tutto”.
Alla fine del 1995 avevo installato il nuovo browser Netscape sul mio computer da lavoro e lo utilizzavo per esplorare le pagine del World Wide Web, che sembravano infinite. Quando arrivò il Web 2.0, attorno al 2005, anch’io diventai 2.0. Entrai a far parte dei social network e iniziai a produrre contenuti. Fu straordinario, almeno per i primi due anni. Il prodotto finito si otteneva subito, non dopo settimane o mesi come prima. Tutto questo mi dava un senso di grande libertà. Anche la lettura online mi provocava la stessa sensazione.
A un certo punto, nel 2007, cominciò a serpeggiare un dubbio nel mio “info-paradiso”. Mi accordi che la Rete esercitava su di me un’influenza molto maggiore rispetto a quanto non facesse il mio vecchio computer privo di connessioni. Non era soltanto perché trascorrevo così tanto tempo a fissare lo schermo o perché le mie abitudini e ritmi di lavoro stavano cambiando, ma sembrava cambiato il modo stesso in cui il mio cervello funzionava. Mi accorsi che ero affamato, volevo essere connesso. Mi mancava il mio vecchio cervello.
I tracciati vitali
Nietzsche era disperato. Di salute cagionevole fin da bambino nel 1879, col peggiorare dei suoi problemi di salute, era stato costretto a lasciare il suo posto di professore di Filologia all’Università di Basilea. A 34 anni iniziò a vagare cercando sollievo alle sue sofferenze. Verso la fine del 1881 prese coscienza che la sua vista si stava affievolendo e mantenere gli occhi concentrati su una pagina era diventato estremamente faticoso e doloroso. Non sapendo cos’altro fare, si decise a ordinare una macchina da scrivere, la Writing Ball, che gli fu consegnata nelle prime settimane del 1882. La Writing Ball aveva salvato Nietzsche, almeno quella volta. Quando ebbe imparato come battere sui tasti, fu in grado di scrivere a occhi chiusi.
Quello strumento però ebbe sul suo lavoro un effetto più subdolo. Uno dei migliori amici di Nietzsche, lo scrittore e compositore Köselitz, notò un cambiamento nello stile della sua scrittura. “Attraverso questo strumento forse finirai per darti un nuovo idioma” disse a Nietzsche che rispose “hai ragione, i nostri strumenti di scrittura hanno un ruolo nella formazione dei nostri pensieri”.
Mentre Nietzsche stava imparando a battere a macchina sulla sua Writing Ball a mille chilometri verso nord-est un giovane studente di Medicina chiamato Freud stava lavorando come ricercatore in Neurofisiologia in un laboratorio di Vienna. Attraverso i suoi esperimenti arrivò a ipotizzare che il cervello, come altri organi del corpo, fosse costituito da molte cellule separate. In seguito estese la sua teoria fino a sostenere il ruolo essenziale svolto dagli spazi di separazione tra le cellule nel regolare le funzioni della mente, nel dare una forma ai nostri ricordi e ai nostri pensieri. A quel tempo le conclusioni cui giunse Freud erano totalmente in disaccordo con le teorie scientifiche dominanti. Molti medici credevano che il cervello non fosse costituito da cellule, bensì che consistesse in un unico tessuto di fibre nervose.
In procinto di sposarsi Freud abbandonò presto la sua carriera di ricercatore e si dedicò all’attività privata come psicoanalista. Studi successivi avvalorarono però le sue speculazioni giovanili e gli scienziati confermarono l’esistenza di cellule nervose separate. Scoprirono pure che queste cellule, i neuroni, sono allo stesso tempo simili e dissimili rispetto alle altre cellule del nostro corpo. Quando un neurone è attivo, si genera un impulso che dal soma va all’estremità dell’assone, dove determina una scarica di sostanze chimiche chiamate neurotrasmettitori. Questi scorrono attraverso le barriere di contatto individuate da Freud e si attaccano a un dendrite di un neurone vicino scatenando un nuovo impulso elettrico. Pensieri, ricordi emozioni ecc emergono dalle interazioni elettrochimiche dei neuroni mediate dalle sinapsi.
Nel corso del XX secolo neuroscienziati e psicologi si sono resi conto della straordinaria complessità del cervello umano. Un neurone medio crea circa un migliaio di connessioni sinaptiche. Anche se le nostre conoscenze sui meccanismi fisici del cervello si sono evolute nel corso dell’ultimo secolo, c’è una vecchia convinzione che non è mai stata messa in discussione: la maggior parte dei biologi e dei neurologi continua a credere che la struttura del cervello adulto non cambi mai. I nostri neuroni si connetterebbero in circuiti durante l’infanzia, quando il nostro cervello è malleabile. Una volta raggiunta la maturità quei circuiti sarebbero fissi. Il cervello, secondo le teorie più diffuse, è qualcosa di simile a una struttura di cemento.
Ovviamente continuiamo a incamerare nuovi ricordi lungo tutta la nostra esistenza, ma l’unico cambiamento sarebbe un lento processo di decadimento a mano a mano che il corpo invecchia e le cellule nervose muoiono. Benché la credenza nell’immutabilità del cervello adulto sia sempre rimasta preponderante, non sono mancati gli eretici. Un manipolo di biologi e psicologi individuò all’interno della gran mole di ricerche sull’argomento, chiare indicazioni del fatto che anche il cervello adulto fosse malleabile o “plastico”. Arrivarono a sostenere che nuovi circuiti neurali potessero formarsi nell’arco dell’intera vita.
Young ipotizzò che la struttura del cervello potesse essere in uno stato di costante cambiamento, adattandosi di continuo a qualsiasi compito fosse chiamato a svolgere. Non fu l’unico a porre una teoria simile. William James 60 anni prima, aveva espresso un’intuizione analoga circa l’adattabilità del cervello: “Come per ogni altra realtà fisica, sia forze provenienti dall’esterno, sia impulsi interni possono, nel giro di un’ora, trasformare quella struttura in qualcosa di diverso da ciò che era”.
Queste riflessioni furono rifiutate, spesso con plateale disprezzo, dalla maggior parte degli studiosi del cervello e dei medici. Costoro rimasero convinti che la plasticità del cervello fosse limitata alla fase infantile. Tutti concordavano con Santiago Ramón y Cajal, eminente medico spagnolo e premio Nobel che nel 1913 aveva dichiarato che “nei nuclei del cervello adulto, i tracciati nervosi sono qualcosa di fisso, immutabile; Tutto può morire, nulla può essere rigenerato”.
L’idea del cervello adulto come apparato fisico immutabile derivava da una metafora tipica dell’Era Industriale, che rappresentava il cervello come un congegno meccanico. La concezione meccanicistica del cervello rispecchiava la famosa teoria del dualismo che René Descartes (Cartesio) aveva proposto nelle Meditazioni. Per Cartesio, il cervello e la mente esistono in due sfere separate: una materiale e una immateriale. Il cervello fisico è uno strumento puramente meccanico che, funziona con il movimento delle sue componenti. Ma l’attività del cervello non basta a spiegare il funzionamento della mente cosciente. La mente esiste fuori dallo spazio, al di là delle leggi della materia. Mente e cervello possono influenzarsi a vicenda, ma rimangono due entità totalmente distinte.
All’epoca dell’Illuminismo, quando la ragione divenne la nuova religione, la nozione di una mente immateriale che rimanesse fuori dal campo dell’osservazione e della sperimentazione scientifica appariva sempre meno sostenibile. Gli scienziati rifiutarono la metà “mente” del dualismo cartesiano, anche se abbracciarono l’idea del cervello come macchina. Il pensiero, la memoria, le emozioni invece di essere l’emanazione di un mondo spirituale, venivano visti come il prodotto logico e predeterminato delle operazioni fisiche del cervello. La coscienza era semplicemente un sottoprodotto di queste operazioni.
La metafora della macchina fu ulteriormente rinforzata dall’avvento del computer digitale, alla metà del XX secolo. È stato allora che scienziati e filosofi hanno cominciato a riferirsi ai nostri circuiti mentali, e persino al nostro comportamento, definendoli “cablati a livello di hardware”.
L’idea dell’immutabilità del cervello adulto si consolidò diventando quasi un dogma e si trasformò in una specie di “nichilismo neurologico” stando a quanto ebbe a dire lo psichiatra Doidge, poiché creava “l’impressione che il trattamento di molti problemi cerebrali fosse inefficace o persino privo di qualunque fondamento”. Da momento che il cervello non può cambiare, così anche la natura umana che ha la propria origine nella mente, sembrava altrettanto inalterabile.
Nuove scoperte
È il 1968 e sono un normale bambino di periferia. Merzenich, 26 anni, ha appena conseguito un dottorato in Fisiologia alla Hopkins, dove ha studiato con Mountcastle, pioniere delle neuroscienze. È arrivato in Wisconsin per dedicarsi a una ricerca di post dottorato sulla mappatura del cervello. È ormai noto che ogni parte del corpo è rappresentata in un’area corrispondente nella corteccia cerebrale, lo stato rugoso esterno del cervello.
Negli anni 30 del ‘900 il neurochirurgo canadese Wilder Penfield aveva usato sonde elettriche per tracciare le prime mappe sensoriali del cervello umano. Una volta rimoso il frammento di cranio della scimmia e scoperta una piccola porzione del suo cervello, egli infila il microelettrodo nell’area della corteccia che registra le sensazioni provenienti da una delle mani dell’animale. Dopo aver inserito e reinserito metodicamente gli elettrodi migliaia di volte nel giro di pochi giorni, riesce a ottenere una micromappa che mostra nei minimi dettagli, in che modo il cervello della scimmia elabori quello che sente la mano.
Merzenich passa poi alla seconda fase del suo esperimento. Usando un bisturi, pratica delle incisioni sulle mani degli animali, recidendo i nervi sensoriali. Ciò che scopre lo stupisce. I nervi delle mani della scimmia ricrescono in una maniera casuale, come previsto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Sunto Psicopedagogia dei nuovi media, docente Cecchinato, libro consigliato Come funziona la nostra mente, apprendi…
-
Sunto "Disegno", docente De Michele, libro consigliato "Disegnare con la parte destra del cervello", Betty Edwards
-
Sunto Comunicazione e persuasione, docente Carraro, libro consigliato Crescere con la tv e Internet, Arcuri
-
Sunto “Letteratura italiana”, prof. Simonetti, libro consigliato “Settanta”, Marco Belpoliti