Software culture
Software Culture: particolare sottoinsieme di un’applicazione software e webware che permette la creazione, pubblicazione, condivisione e remix di immagini, sequenze di immagini in movimento, progetti tridimensionali, testi, mappe, elementi interattivi, così come le diverse combinazioni di questi diversi elementi. Il software culture include inoltre web browser come Firefox e Safari, programmi di e-mail e di chat, newsreader e altri tipi di programmi che si concentrano principalmente sull’accesso ai contenuti.
Introduzione
Il software, ossia il motore della società contemporanea. Nelle classifiche tra le aziende americane più prolifiche e più importanti a livello mondiale compaiono molto più spesso quelle che si occupano di produrre software come Google e Apple. Allo stesso modo anche le internet companies come Yahoo, Facebook, Amazon, eBay hanno la loro grande rilevanza. software culture, culturale nel senso che coinvolge migliaia di persone e permette il trasporto di atomi di cultura.
Ma il software è una realtà molto più radicata nella nostra società di quanto noi pensiamo: tutti i sistemi sociali, economici e culturali di una società moderna si appoggiano al software. I diversi sistemi della società moderna parlano linguaggi differenti e perseguono obiettivi distinti, ma tutti condividono la sintassi propria del software: strutture di controllo if/then (se/allora) e while/do (mentre/fai), operatori logici e tipologie di dati, strutture di dati come le liste e convenzioni d’interfaccia come menu e finestra.
Il software è stato determinante per la nascita della società dell’informazione globale. Nessuno dei protagonisti della società dell’informazione esisterebbe senza il software. Esso guida anche il processo di globalizzazione.
Cosa sono i software studies?
Esistono varie definizioni. Software culture sono una branca di studi sui media che si pongono l’obiettivo di investigare sia il ruolo del software nella formazione della cultura contemporanea, sia le forze economiche, sociali e culturali che stanno plasmando lo sviluppo del software stesso.
Il libro che per primo ha dimostrato in modo esaustivo la necessità di questo secondo approccio è stato New Media Reader curato da Noah Wardrip-Fruin e Nick Montfort ha gettato le basi per uno studio della storia del software in chiave culturale.
Nel febbraio 2006 Matthew Fuller, già autore di un saggio sui software come cultura, organizzò il primo seminario sui software studies all’istituto Piet Zwart di Rotterdam. Egli sostiene che tutto il lavoro intellettuale in un certo senso è studio del software, poiché il software ne fornisce mezzo e contesto, ma che soltanto in pochissimi ambiti si studia la natura specifica del software, il suo essere materiale e non come questione ingegneristica.
Quando il libro è uscito il problema dei software studies era solo appena emerso. Matthew Fuller nel 2008 ha curato l’edizione di un saggio, Software Culture: A Lexicon, mentre una serie di pubblicazioni già in commercio e scritte dai principali teorici dei media dei nostri tempi si possono considerare retroattivamente afferenti ai software studies. Si tratta dunque di un paradigma che esiste già da diversi anni, sebbene privo di un nome: la condizione dei Software Studies oggi ricorda quella delle teorie sui nuovi media dei primi anni Novanta (si parla del momento in cui uscì il libro).
Non solo non si può non parlare del ruolo determinante dei software nella vita sociale, economica, culturale dell’uomo contemporaneo, ma allo stesso tempo il lavoro che è stato già fatto sui Software Studies dimostra che l’approccio al software necessita anche di una nuova metodologia per approcciarsi allo studio dei software bisogna “mettere le mani in pasta” se si vuole davvero comprenderli.
A questo proposito va sottolineato che il numero di persone in grado di programmare continua costantemente a crescere. Benché siamo ancora lontani da una coda lunga, lo sviluppo del software diventa sempre più accessibile.
Il software culture
In un solo decennio il computer, da tecnologia culturalmente invisibile, è diventato il nuovo motore della cultura. Se lo sviluppo dell’hardware e della legge di Moore (“Le prestazioni dei processori e il numero dei transistor contenuto in un singolo processore raddoppiano ogni 18 mesi”) hanno certamente giocato un ruolo centrale in tutto questo, ancora più cruciale è stata la distribuzione di software destinati a un’utenza non specializzata.
Software culturali: programmi informatici che vengono utilizzati per creare e accedere a oggetti e ambienti mediali. Considerando che la multimiliardaria industria culturale si regge su questi applicativi, è interessante il fatto che non esista neppure una convenzione condivisa per classificarli.
Nella maggior parte dei casi poi, ad esempio, il software per lo “sviluppo dei contenuti mediali” o “creazione di contenuti”, come Word o Power Point, è lo stesso software utilizzato sia per sviluppare contenuti sia per accedervi. Questa coesistenza di funzioni di autorialità e di accesso è in sé un’importante caratteristica distintiva della cultura del software.
Il software culture include anche altri tipi di programmi e tecnologie:
- Strumenti per la comunicazione la condivisione di contenuti mediali, informazioni, saperi: browser, client di posta, sistemi di messaggistica istantanea, piattaforme wiki, strumenti per il social bookmarking e quelli per il social citation e i mondi virtuali il social software.
- Strumenti per l’organizzazione di informazioni personali: indirizzari, applicazioni per il project management, motori di ricerca offline.
- Interfacce mediali: icone, cartelle, suoni, animazioni, interazioni tra utenti. Possono considerarsi software culture, poiché mediano le interazioni di un individuo con gli oggetti mediali e gli altri utenti.
Se chiamare tutto ciò software culture può sembrare limitante in termini di cosa indica il termine cultura per la società, è anche vero che non si può non dare peso al cambiamento che ha investito la società stessa da quando sono stati introdotti i software in maniera così massiccia in tutti gli ambiti, i campi, gli elementi del sapere. Quindi si può parlare di una società di software e di una cultura dei software, perché oggi il software gioca un ruolo centrale nel plasmare sia gli elementi materiali sia molte delle strutture immateriali che insieme costituiscono la cultura.
Non bisogna confondere i software studies con i code studies: non è possibile capire il funzionamento e i significati di un software studiando il codice, tra l’altro estremamente complesso, che lo descrive. Pertanto, per capire la cultura contemporanea è necessario uno studio sistematico delle premesse, dei principi e della storia del software culturale che includa la teoria dei suoi progettisti.
Perché non esiste una storia del software culturale
Non esiste ancora una storia del software culturale. Il motivo principale è di carattere economico: non vengono riproposti software obsoleti sul mercato, nemmeno per i nostalgici, quindi non vengono studiati. Non abbiamo nemmeno uno studio sistematico del ruolo dei software nella produzione culturale.
L'invenzione del software culture
Capitolo 1 – La macchina mediale universale di Alan Kay
1.1 Apparenza contro funzionalità
Nel periodo compreso tra l’invenzione del computer, metà degli anni Quaranta, e l’invenzione del PC, metà degli anni Ottanta, il computer digitale è stato usato prevalentemente per eseguire calcoli ed elaborare dati nell’ambito scientifico, economico e militare si prestava poco a usi creativi. Tra gli anni Ottanta e Novanta, a seguito di numerosi progressi – lo sviluppo dell’industria del Personal Computer, l’adozione dell’interfaccia grafica utente, l’espansione delle reti informatiche e del World Wide Web – il computer è diventato parte del mainstream culturale.
Il software ha sostituito in gran parte le tecnologie e gli strumenti delle professioni creative e ha permesso a centinaia di migliaia di utenti di creare, manipolare, mettere in sequenza e condividere contenuti mediali. In termini di mezzo di produzione, distribuzione e accesso ai contenuti mediali sembra che la rivoluzione non sia stata accompagnata da un cambiamento analogo nella sintassi e nella semantica dei media.
Tra il 1970 e il 1981 Alan Kay ha lavorato presso lo Xerox PARC, un centro di ricerca fondato dalla Xerox a Palo Alto, dove era alla guida del gruppo di ricerca Learning Research Group. Sulla base del lavoro di Sutherland, Nelson, Engelbart, Licklider, Papert, il gruppo ha formulato in modo sistematico il paradigma e le tecnologie dell’informazione multimediale di massa come le conosciamo oggi.
Alcuni artisti, cineasti, architetti utilizzavano già fin dagli anni Cinquanta il computer, sviluppando spesso loro stessi i software che utilizzavano. Ma questi non erano strumenti versatili, né di facile utilizzo. È noto che alcune delle componenti fondamentali del personal computer moderno nascono allo Xerox PARC, ma altrettanto rilevanti furono le applicazioni che Kay e colleghi svilupparono per la manipolazione e la creazione di contenuti, tutte basate sul principio dell’interfaccia grafica. Esse includevano programmi per la gestione di file, la videoscrittura, il disegno, l’animazione e l’editing musicale. Sia i programmi che l’interfaccia utente che condividevano erano scritti con lo stesso linguaggio di programmazione: lo Smalltalk.
L’essenza dell’intuizione di Kay era di fornire ai consumatori un ambiente di programmazione ed esempi di programmi e strumenti di largo consumo già scritti affinché potessero creare direttamente e personalmente i propri strumenti creativi. Quando Apple introdusse il primo computer Macintosh nel 1984, di fatto mise a disposizione il sogno maturato allo Xerox PARC. Questo computer includeva un programma di scrittura, MacWrite e un applicativo per il disegno, MacDraw. Nel giro di pochi anni a questi si aggiunsero altri software per la creazione e l’editing, di differenti contenuti mediali:
- Word, PageMaker e VideoWorks nel 1985;
- SoundEdit nel 1986;
- Freehand e Illustrator nel 1987;
- Photoshop nel 1990;
- Premiere nel 1991;
- AfterEffects nel 1993.
Intorno alla fine del 1991 la nuova identità del computer come editor mediale personale era del tutto affermata. Ma sviluppando software su interfacce grafiche semplici da utilizzare per la creazione e la manipolazione di contenuti mediali conosciuti, Kay e gli altri sembrano aver condannato il computer a essere un simulatore dei vecchi media. Secondo Jay Bolter e Richard Grusin possiamo affermare che il software basato sull’interfaccia grafica ha trasformato il computer in una “macchina della rimediazione”, cioè una macchina che simula con efficacia una gamma di linguaggi mediali tradizionali.
Bolter e Grusin definiscono la rimediazione come “la rappresentazione di un medium in un altro medium” secondo questa affermazione i nuovi media rimediano sempre i vecchi, quindi non dobbiamo aspettarci che il computer funzioni in modo diverso. Questa prospettiva enfatizza la continuità tra i media computazionali e quelli precedenti. L’unica differenza tra il computer e gli altri media risiede nella modalità e negli oggetti che rimedia. Bolter e Grusin sostengono che “ciò che è nuovo nei media digitali sono le loro specifiche strategie per rimediare la televisione, il cinema, la fotografia e la pittura” e che la rimediazione sia una caratteristica distintiva dei media digitali.
Se ci limitiamo ad osservare l’aspetto dei nuovi media, la tesi della rimediazione descrive in modo appropriato buona parte dei media computazionali. Ma piuttosto di accettare questa condizione dovremmo piuttosto chiederci perché ciò accade. Va tenuto in considerazione che l’identità contemporanea di un computer in quanto processore di contenuti mediali ha impiegato circa quarant’anni per emergere, se consideriamo il 1949 come l’anno in cui il laboratorio Lincoln del MIT incominciò a lavorare al primo computer interattivo e il 1989, anno della prima versione commerciale di Photoshop ci sono voluti generazioni di inventori, creativi e brillanti per sviluppare i concetti e le tecnologie che oggi permettono a un qualsiasi computer di rimediare perfettamente i contenuti di altri media.
Tornando a Kay, egli intendeva trasformare il computer in “un medium dinamico personale” che potesse essere utilizzato per finalità artistiche, di apprendimento e di ricerca. Il suo gruppo ha ottenuto questi risultati simulando in modo sistematico buona parte dei contenuti mediali già esistenti all’interno di un ambiente informatizzato e aggiungendo contemporaneamente molte nuove proprietà. Essi svilupparono anche un nuovo tipo di linguaggio di programmazione e un’interfaccia utente unificata. Kay concepì il medium dinamico e personale come un medium fondamentalmente nuovo dotato di una serie di proprietà prima sconosciute. Quindi, se dal punto di vista visivo il medium computazionale può imitare perfettamente altri media, questi stessi media oggi funzionano in modo differente.
1.2 La simulazione, ovvero il concetto centrale del Dynabook
Nell’articolo scritto a quattro mani nel 1977, Kay e la scienziata informatica Adele Goldberg, descrivono l’obiettivo del Learning Research Group come quello di creare un medium personale e dinamico delle dimensioni di un quaderno alla portata di chiunque, in grado di soddisfare, in linea di principio, tutti i bisogni informatici dell’utente. Sebbene esistessero già singoli programmi in grado di utilizzare mezzi espressivi diversi, il gruppo di Kay li implementò per la prima volta tutti insieme all’interno di una singola macchina una piattaforma per tutti i mezzi espressivi esistenti: un metamedium.
Questo paradigma cambia la nostra comprensione della natura stessa dei media il discorso sui media moderni si era sviluppato intorno all’ipotesi che mezzi espressivi diversi possiedano proprietà distinte e vadano in antitesi gli uni gli altri. Inserire tutti questi media in un singolo ambiente computerizzato non cancella necessariamente le differenze di rappresentazione e percezione specifiche dei singoli media, tuttavia li avvicina considerevolmente l’uno all’altro. È come se media diversi cercassero di raggiungersi l’un l’altro in modo attivo, scambiarsi proprietà e offrire in prestito le proprie specifiche caratteristiche. Siamo agli antipodi del paradigma modernista dei media dell’inizio del Ventesimo secolo, focalizzato sulla scoperta del linguaggio specifico di ciascun medium artistico.
Alan Turing definì concettualmente il computer come una macchina in grado di simulare una grande quantità di macchine diverse, ma egli né altri studiosi e inventori di computer hanno considerato che questa simulazione potesse includere anche i media. Solo Kay e la sua generazione estesero l’idea della simulazione ai media, trasformando così la Macchina Universale di Turing in una Macchina Mediale Universale. Di conseguenza Kay e Goldberg scrivono: “La simulazione è senza dubbio il concetto centrale del Dynabook”.
Nella simulazione al computer non si riproduce semplicemente qualcosa di analogico, ma lo si addiziona con delle nuove proprietà del tutto inesistenti nell’oggetto reale e quindi peculiari al medium digitale (es. il foglio che diventa foglio digitale). Gli inventori dell’informatica multimediale interattiva erano consapevoli di trasformare i media tradizionali in nuovi media. E puntarono soprattutto a veicolare le nuove opportunità che questi davano all’uomo, non poggiavano tanto su quelle funzionalità già presenti nel dato medium cui si ispiravano. Essi sottolinearono soprattutto l’importanza del controllo del visuale. Engelbart e il suo gruppo di ricerca al Research Center for Augumenting Human Intellect ha sviluppato l’ambiente per la produttività lavorativa come lo conosciamo oggi. Nelson e il suo concetto di ipertesto, parallelo al lavoro di Engelbart.
La diffusione del web ha portato la maggior parte di noi a pensare all’ipertesto come a un corpo di testi connesso tramite collegamenti unidirezionali. Tuttavia, il termine “collegamento” non appare nella definizione originale di Nelson di ipertesto. Al contrario, Nelson parla di una nuova interconnettività complessa senza specificare alcun meccanismo per ottenerla. Nel 1965 propone un sistema particolare per implementare questa idea ma, come la definizione suggerisce implicitamente, è solo uno dei tanti possibili.
E se ipertesto non significa “collegamento”, non significa nemmeno “testo” il suo significato si estende anche alle immagini, ai film, ad altre forme mediali. Decenni prima che l’ipertesto e l’ipermedia diventassero la modalità standard per interagire con l’informazione, Nelson aveva ben chiare le implicazioni di queste idee sulle consolidate pratiche e teorie culturali. La sensibilità modernista di Nelson si avverte in molti punti, ma il suo lavoro non deve essere considerato un semplice proseguimento della tradizione modernista: gli avanguardisti dei primi del Novecento mettevano in discussione le convenzioni dei linguaggi mediali già esistenti, Nelson e Kay scrivono esplicitamente della creazione di nuovi mezzi di comunicazione e non solo del cambiamento di quelli già esistenti.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Riassunto esame Mass Media, New Media e Società delle Reti, prof. Pireddu, libro consigliato Il Linguaggio dei Nuov…
-
Riassunto esame Mass Media, New media e società delle reti, prof Pireddu, libro consigliato Il linguaggio dei nuovi…
-
Riassunto esame Mass Media, New Media e Società delle Reti, prof. Pireddu, libro consigliato Surplus Cognitivo, Shi…
-
Riassunto esame Mass media, prof. Pireddu, libro consigliato Cultura convergente, Jenkins