Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
QUARTO CAPITOLO
VISUAL EFFECTS
Nel corso del ventesimo secolo i diversi ambiti della cultura delle immagini in
movimento hanno mantenuto separati i propri metodi di produzione e le proprie
estetiche. I film e i cartoni animati erano realizzati in modo completamente diverso ed
era facile distinguere i due linguaggi. Oggi la situazione è cambiata. La
softwarizzazione dell’intero flusso produttivo delle immagini in movimento ha creato
un bacino comune di tecniche impiegate indistintamente per video, film e animazione.
Tutti i designer di immagini in movimento condividono gli stessi strumenti, e sebbene
ciò non renda uguali tutti gli audiovisivi prodotti oggi, le variazioni nel look sono il
risultato di scelte deliberate e non di differenze produttive.
Oggi il termine “animazione” continua ad esistere ed indica anche un settore di
grande successo. L’animazione diventa come una cassetta per gli attrezzi: funziona
non come mezzo espressivo, ma come un insieme di tecniche multiuso che
confluiscono nel bacino di opzioni disponibili al designer/ regista. Ciò che una volta era
l’animazione è confluito nel metamedium computazionale. Questo nuovo ruolo
dell’animazione è ben illustrato dall’esempio del Universal Capture: metodo elaborato
per combinare riprese dal vivo e computer graphics. In questo metodo gli elementi
visivi di diversa natura sono fusi insieme per creare un nuovo tipo di immagine.
Sviluppo asimmetrico
La fotografia ha mostrato di essere un linguaggio resistente infatti è sopravvissuto a
ogni successiva ondata tecnologica e questo per la sua grande flessibilità in quanto le
fotografie si prestano facilmente a essere mixate con altre forme, come disegni,
immagini 2D e 3D. La fotografia domina la nostra cultura visuale: si tratta non tanto di
immagini pure, quanto di mutazioni e ibridi. Possiamo quindi affermare che la nostra è
una cultura fotografica. La fotografia costituisce solo lo strato iniziale del mix grafico
esattamente come nella grafica in movimento le riprese dal vivo sono subordinate al
linguaggio della grafica. In natura, nella società e nella cultura in cambiamento
avviene in diversi modi. Uni di essi è dall’interno: prima si modifica la struttura e in un
secondo momento la superficie si adegua al cambiamento. Finchè una nuova struttura
23
non emerge ogni nuovo sistema di produzione inizialmente supporta le strutture
esistenti dell’organizzazione mediale. A partire dalla metà degli anni Cinquanta, la
computerizzazione della fotografia ha cambiato completamente la struttura interna
dell’immagine fotografica. Eppure la sua pelle, l’aspetto della fotografia, è rimasta
quasi la stessa, infatti presenta ancora la vecchia sovrastruttura fotografica su una
nuova infrastruttura computerizzata.
I film della serie di Matrix ne sono un esempio. I film raccontano della Matrice, un
universo virtuale retto dalle macchine. Esiste una perfetta simmetria tra noi spettatori
e gli abitanti della Matrice. La trilogia può essere anche interpretata come una visione
profetica di come saranno i videogiochi nel futuro. La chiave dell’universo visuale di
Matrix sono le nuove tecniche della computer graphics sviluppate nelle università e
negli studi di effetti speciali. Queste tecniche portano alle logiche conseguenze gli
sviluppo degli anni novanta, come il motion capture e spalancando nuovi scenari.
Come Matrix la vecchia infrastruttura fotografica è stata rimpiazzata da una nuova
infrastruttura informatica.
Simulare o campionare?
L’autore più famoso di Universal Capture, Jhon Gaeta, è tra i pochi ad aver attuato una
profonda riflessione sui nuovi metodi che ha inventato. Da un lato ne ha discusso il
ruolo come nuovi paradigmi per il cinema e l’entertainment, dall’altro ha elaborato
molti concetti e terminologie utili. Nel 1963 Lawrence G. Roberts pubblicò la
descrizione di un algoritmo in grado di costruire immagini in prospettiva lineare. Gli
spigoli degli oggetti erano rappresentati da linee: nel linguaggio attuale lo definiamo
wireframe. Nel giro di un decennio si svilupparono nuovi algoritmi per lo shading, ossia
la creazione di immagini ombreggiate. Tra la metà degli anni 70 e la fine degli anni 80
lo sviluppo della grafica computerizzata subì un’accelerazione. Tecniche fondamentali
apparvero a breve distanza l’una dall’altra.
Alla fine di questo periodo di creatività divenne possibile sintetizzare immagini di quasi
ogni oggetto. Per sintetizzare un’immagine della realtà era necessario simulare le
interazioni tra le sorgenti di luce, le proprietà dei materiali e quelle delle tecnologie di
ripresa. Un secondo postulato era che la realtà dovesse essere ricreata passo dopo
passo partendo da una tela bianca. Per ogni immagine e per ogni animazione si
ripeteva la storia della creazione biblica: prima bisogna creare la geometria, poi
scegliere le proprietà materiali di ogni oggetto e creatura, ora definire le luci e infine
lanciare il rendering della scena, osservare il risultato e ammirare la creazione.
Ma non ha ancora finito: bisogna aprire i menu per la definizione della fisica simulata.
La nostra situazione è diversa da quella della creazione del mondo in quanto stiamo
simulando un universo già esistente, cioè la realtà fisica. Gli sviluppatori intuirono che
invece di creare ogni volta una cosa da zero per via algoritmica si poteva campionarla
dalla realtà e incorporare questi campionamenti. Il texture mapping consente di
applicare a un modello 3D un’immagine bidimensionale digitalizzata. Il bump texturing
invece un’immagine bidimensionale e la utilizza per aumentare la complessità
geometrica del modello. Un artista può fotografare un muro reale, convertire
l’immagine in scala di grigi e poi inserirla nell’algoritmo di rendering. L’algoritmo
interpreta il valore di ogni pixel come l’altezza relativa alla superficie. Le tecniche
basate sul campionamento della realtà apparivano come soluzioni temporanee, da
impiegarsi in attesa di opportuni algoritmi o dell’hardware adeguato. I campionamenti
della realtà raramente si adattavano alle immagini algoritmiche e obbligavano a
ritocchi manuali.
Costruire la Matrice
Non solo ogni immagine simulata deve possedere una coerenza interna, ma deve
anche armonizzarsi con la fotografia del film. L’universo simulato e l’universo dal vivo
24
devono essere congruenti. Dopo essere apparse per la prima volta al cinema nel 1980,
la computer graphics è stata impiegata nel decennio successivo come elemento
secondario in molti film. La situazione iniziò a cambiare nei primi anni novanta.
All’interno dei film pionieristici i protagonisti erano personaggi generati al pc. I
protagonisti digitali interagivano con ambienti e attori ripresi dal vivo. Questi
personaggi sintetici erano inseriti in un universo dal vivo prodotto dalla cattura del
mondo tramite una cinepresa ottica. Il mondo simulato veniva inglobato nel mondo
catturato e i due dovevano essere perfettamente congruenti. L’intuizione di Gaeta è
stata che il modo migliore per allineare l’universo dal vivo e quello sintetico era
costruire un unico, nuovo universo. Il procedimento smonta la realtà fisica per poi
ri-assemblare via software gli elementi in una nuova rappresentazione sintetica. Il
risultato è un nuovo tipo di immagine che presenta una struttura interna del tutto
nuova. L’Universal Capture è stato creato e raffinato nel corso di tre anni, tra il 2000 e
il 2003. Come primo passo si registra la performance( tutto quello che un attore dirà o
farà durante il film e le sue espressioni facciali) di un attore utilizzando cinque
cineprese ad alta risoluzione. In seguito, attraverso algoritmi, si tracciano i movimenti
di ogni pixel di ciascun fotogramma. Questi dati sono combinati con un modello
tridimensionale del volto dell’attore, ottenuto catturandone un’espressione neutra con
uno scanner tridimensionale. Il risultato è un modello tridimensionale animato che
ricrea la geometria della testa dell’attore durante la performance. Una volta che tutti i
dati sono stati estrapolati, allineati e combinati, il risultato è un umano virtuale:
un’accurata ricostruzione tridimensionale della performance. Il fatto che la
performance sia ora un oggetto tridimensionale in uno spazio virtuale significa che il
regista può inquadrarla da qualsiasi angolo attraverso la cinepresa virtuale, così come
può modificare in tempo reale l’illuminazione e applicare la testa 3D dell’attore su un
corpo generato in computer graphics. I personaggi della scena nota come Burly Brawl
sono stati creati combinandole teste degli attori protagonisti, generate con Universal
Capture, su corpi sintetici, costruiti con il motion capture, di altri attori. Poiché sia il set
che i personaggi erano sintetici, i registi hanno potuto utilizzare coreograficamente la
cinepresa virtuale. Total capture era una tecnica con cui si catturano tutte le
informazioni da un oggetto o una scena utilizzando tutti i metodi disponibili con le
attuali tecnologie. Le varie dimensioni della realtà sono catturate separatamente e poi
assemblate in una rappresentazione dettagliata e realistica. Il Total Capture è diverso
dall’animazione per fotogrammi-chiave e dalla modellazione fisica. Nel primo caso un
animatore indica soltanto i passaggi-chiave in movimento di un modello
tridimensionale e lascia che il computer calcoli i fotogrammi intermedi. Nel secondo
caso tutta l’animazione è creata dal software attraverso la simulazione della fisica in
movimento. Spesso i due metodi sono combinati. La tecnica della modellazione fisica
aveva dato i suoi risultati più impressionanti ne “Il signore degli anelli: il ritorno del re”
in una scena di battagli che coinvolgeva decine di migliaia di soldati virtuali guidati dal
software Massive. Ogni soldato virtuale poteva vedere il terreno e gli altri soldati ed
era dotato di una scala di priorità e di un cervello, ossia di un’intelligenza artificiale in
grado di determinare le azioni sulla base degli input sensoriali e delle priorità. Massive
non deve funzionare in tempo reale e può quindi creare scene con decine o centinaia
di migliaia di personaggi dotati di comportamento realistico. L’Universal Capture
campiona la realtà. Successivamente brevi performance di attori confluiscono in una
libreria da cui i registi possono attingere per costruire una scena. Sebbene il team di
Gaeta non abbia mai usato forme di intervento manuale sull’animazione per
aggiustare il movimento facciale di un attore, poteva intervenire su ritmo e durata
come nell’esecuzione di una partitura. Nel nostro caso s