• Non ci sono risultati.

Presentare in poche righe le possibilità tecniche della computer

animation (intesa anche come parte delle tecniche di grafica

computerizzata) è un’impresa ardua, per cui ci limitiamo a introdurre, qui, l’argomento per riprendere la nozione nel capitolo dedicato alla CGI (computer graphics imagery) in cui abbiamo affrontato un’analisi tecnico-teorica della computer graphics, che nelle parole di Amaducci rappresenta la “rivoluzione

dell’animazione, sia dal punto di vista estetico che dal punto di vista tecnologico”118.

Le potenzialità del calcolatore si possono riassumere affermando che la macchina permette di riprodurre tutte le tecniche d’animazione fin qui elencate e tali tecniche sono state assorbite e integrate all’interno di software specifici di modellazione e animazione dotati di una serie di strumenti e funzionalità di cinematica avanzata che hanno ottimizzato il processo di lavorazione dell’animatore.

Lo sviluppo della CGI ha rivoluzionato il modo di pensare il mondo visibile e “non è un’esagerazione affermare che, in termini di metodi tecnici applicati all’arte, gli sviluppi recenti di grafica possono essere comparati ai progressi del Rinascimento italiano. Non a caso, la maggior parte dei fenomeni oggi centrali in CG sono gli stessi che affascinavano i visionari di quell’era: ottica, leggi fisiche, geometria e proprietà materiali sono sempre state di interesse degli artisti e la profonda relazione tra le cose nel mondo è stato il vero materiale grezzo da cui l’arte è stata creata”119. Se per anni, gli strumenti e le

tecnologie per creare lavori artistici in CG di alta qualità sono stati costosi e inaccessibili a molti utenti, oggi anche studenti, hobbysts,

freelancer e studiosi simili hanno accesso a strumenti potenti di

creazione di contenuti 3D estremamente versatili, spesso senza restrizioni di utilizzo, distribuzione o modificazione. Chiaramente, sforzi, competenze e risorse rimangono indispensabili per creare lavori di alto livello, ma l’accessibilità di risorse gratuite come Blender – l’applicazione di modellazione 3D e animazione più installata al mondo – ha fatto sì che il numero di persone tese ad

118 A. Amaducci, Computer grafica. cit., p. 7

119 T. Muller, Bounce, Tumble, and Splash! Simulating the Physical World with Blender 3D, Wiley Publishing, Inc., Indiana, 2008, introduction.

accarezzare l’idea di creare lavori artistici in CG crescesse considerevolmente. In una logica “artist-oriented”, senza entrare nei tecnicismi informatici, abbiamo voluto riassumere, qui di seguito, le possibilità offerte dai software a quegli artisti che vogliono animare i loro modelli e incorporare simulazioni fisiche nelle loro scene animate. Quelle che riteniamo essere le principali tecniche d’animazione in CG sono l’animazione per keyframe, la simulazione fisica e il rigging (o sistema di armatura), non necessariamente sequenziali e spesso combinate insieme, oltre che supportate da quasi tutti i programmi di modellazione 3D e animazione. Analizziamole singolarmente più da vicino e cerchiamo di comprenderne i processi di produzione.

a) Animazione per keyframe

L’animazione 3D si basa sugli stessi principi dell’animazione tradizionale: il filmato viene realizzato attraverso una sequenza di immagini (i frames) che si susseguono nel tempo ad intervalli costanti. In grafica 3D il procedimento è più complesso in quanto bisogna descrivere i cambiamenti che intercorrono nel mondo virtuale tra un fotogramma e il suo successivo. I programmi considerano uno a uno i fotogrammi che compongono l’animazione e per ciascuno di essi generano una configurazione che è la rappresentazione in un dato istante di un modello tridimensionale. In queste configurazioni gli oggetti possono cambiare di posizione, di forma, di colore o materiale e persino i valori posizionali di luci e cineprese, così come la potenza delle prime e il campo visivo delle seconde, possono mutare al loro interno, creando effetti particolari. Una volta costruita la scena corrispondente ad ogni fotogramma, il programma ne esegue il

rendering e l’insieme dei fotogrammi generati viene, poi, assemblato

animazione prende il nome di keyframe animation e consiste nel posizionamento di oggetti, prima modellati, in alcuni fotogrammi speciali (quelli chiave che definiscono lo stato iniziale e finale di un’animazione) della timeline. I fotogrammi chiave rappresentano i punti di partenza e di fine per l’interpolazione, quel processo per cui il calcolatore calcola automaticamente con pose di transizione (dette

inbeteweens), l’area compresa tra i valori conosciuti. Il software, in

altre parole, automatizza il vecchio lavoro dell’intercalatore la cui professione, un tempo di fondamentale supporto all’animatore, cessa di esistere.

Allo stesso modo si possono modificare la rotazione, le variazioni di scala e molti altri parametri: gli Editor grafici di software di animazione, compositing e video editing presentano – tipicamente in una vista compatta e sotto forma di grafici bidimensionali detti “curve di proprietà”120 – tutte le proprietà applicate all’estensione di

un’interpolazione selezionata (effetti cromatici, trasformazioni e molti altri elementi) e permettono di modificare ciascuno di tali grafici per intervenire singolarmente sulle proprietà interpolate corrispondenti. L’elevata granularità e il controllo di precisione di cui essi sono dotati consentono di creare facilmente le interpolazioni e di emulare, in modo semplice, un comportamento reale. In definitiva, i fotogrammi chiave sono utilizzati per impostare parametri per movimento, effetti e molte altre proprietà che in genere cambiano nel tempo e ciascuno di essi contrassegna un punto nel tempo in cui è possibile specificare un valore, che si tratti di una posizione spaziale, di un grado di opacità o altro.

120 Le curve di proprietà sono composte su una griglia nell’Editor Movimento con il tempo sull’asse orizzontale e il cambiamento di valore di una proprietà sull’asse verticale

Esempio di curve di proprietà

b) Simulazione fisica

Rimanendo a cavallo tra il mondo dell’arte e quello della scienza, orientiamo, adesso, la nostra attenzione verso l’utilizzo di sofisticate simulazioni di fenomeni fisici al computer per fini visivi, espressivi e più prettamente artistici.

Iniziamo con l’affermare che, sebbene le simulazioni fisiche per animazioni in 3D appartengano al campo delle simulazioni fisiche in generale, i loro requisiti e i loro obbietti differiscono dalle simulazioni di altro tipo. Ad esempio, le simulazioni utilizzate a fini ingegneristici devono essere in grado di calcolare gli effetti di situazioni fisiche del mondo reale con grande accuratezza e non richiedono velocità di elaborazione o vincoli di real-time processing. Pensiamo a chi progetta un grattacielo e si serve della simulazione dei fluidi per valutare il modo in cui la struttura resisterà al vento: per assicurare che i risultati siano, in termini di forza e di tensione, fisicamente il più accurati possibile è necessaria una considerevole mole di tempo, ma allo stesso tempo, l’aspetto visivo della simulazione non è interessante di per sé. Dal canto opposto, la simulazione per animazioni deve essere visivamente convincente ed efficiente abbastanza, in termini di calcolo, per essere realizzata in un time

tratti di film digitali ad alto budget); generalmente poca roba dipende dal grado di accuratezza. Gli artisti, inoltre, essendo persone creative, usano le simulazioni senza rispettare le leggi del mondo reale e, al contrario, tendono a creare situazioni che sarebbero impossibili o altamente difficili da incontrare nel mondo fisico, per cui è importante che gli strumenti che utilizzano offrano loro le possibilità di creare ciò che vogliono, indipendentemente dall’autenticità fisica. Questo è il motivo per cui, ad esempio, le armature per l’animazione dei personaggi in CG sono molto diverse dagli scheletri umani: come vedremo nella sezione dedicata al rigging, spesso è possibile allungare, piegare, ruotare le ossa in qualsiasi posizione desiderata. La simulazione di fenomeni fisici è resa possibile da una varietà di strumenti che calcolano le forze interne ed esterne che agiscono sugli oggetti e che determinano i movimenti e il comportamento strutturale degli stessi.

In CG, un primo caso di simulazione fisica particolare riguarda il comportamento di oggetti del mondo reale che agiscono in gruppo. Molti programmi maneggiano questi tipi di effetti simulando e ricreando le dinamiche fisiche e il comportamento di particelle. Se, come è possibile intuire, i cosiddetti “sistemi particellari” (particles

systems) si sposano bene con la simulazione di fumo, acqua, sabbia,

vapore, fuoco, polvere e nuvole o granuli di una qualche sostanza, il loro potenziale si spinge oltre: le particelle possono essere utilizzate per simulare anche il comportamento di uno sciame di insetti o quello di decine di migliaia di foglie, oggetti il cui comportamento collettivo può essere calcolato dal simulatore. Ciò avviene definendo un gruppo di particelle e impostandone una serie di parametri (riguardanti, ad esempio, la velocità, la direzione, la durata) al fine di animarle e renderizzarle nel modo desiderato. Le possibilità di interazione delle particelle sono pressoché infinite e tutte le dinamiche che avvengono

tra esse, come vento e attrito o gravità e collisioni, vengono calcolate matematicamente. Accanto a questo tipo di particelle, le dynamic

particles, esistono anche particelle “statiche” che, ancorate a una

superficie, servono invece a simulare oggetti lunghi e snelli come capelli e interi prati d’erba. In questo caso, la traiettoria di ogni particella proveniente da un emettitore (i cui parametri condizionano il comportamento delle particelle stesse) è modellata nello spazio 3D ed esistono numerose opzioni per controllarne comportamento e apparenza.

Un secondo caso di simulazione fisica riguarda i corpi morbidi. In natura, i materiali esibiscono differenti proprietà di rigidità e di reazione alle forze; molti presentano strutture fisiche flessibili che si deformano visibilmente quando subiscono forze esterne come la gravità o la frizione, per cui, al fine di rappresentare il comportamento di questi materiali, le simulazioni di corpi morbidi – che in Blender portano il nome di soft body simulation – permettono, impostando una serie di parametri (frizione, massa, gravità e velocità), di animare materiali come gomma, carta, gelatina, metallo e vestiti, oggetti che possono rimbalzare, stropicciarsi o oscillare. Questi materiali sono facilmente modellabili attraverso delle strutture 3D chiamate mesh la cui animazione riguarda proprio la deformazione delle maglie della rete. La dinamica dei corpi mobili funziona trattando le mesh come una rete di molle di cui è possibile determinare, in primo luogo, la modalità di reazione alle forze cui sono sottoposte, poi, quella di interazione tra la simulazione stessa e le mesh. Esistono modi diversi per attuare questa operazione: si possono usare forme chiave, ganci o modificatori come armature, reticoli, curve, dislocamenti, onde, etc. Ognuno di questi metodi permette modi di deformazione differenti e la loro combinazione aumenta il grado di controllo da parte dell’animatore. Assieme alle

particelle statiche, inoltre, la simulazione di corpi morbidi può essere usata anche per controllare il movimento dei capelli che esibiscono pure il comportamento di un corpo flessibile.

In definitiva, che si tratti di sistemi particellari o di simulazione di corpi morbidi, il comportamento degli oggetti può essere influenzato in due modi: il primo riguarda l’utilizzo di campi di forza (che possono essere di diverso tipo: armonico, magnetico, a vortice, sferico, etc.), ovvero la creazione di forze esterne che penetrano gli oggetti modificandoli, il secondo, invece, si riferisce all’uso di oggetti di deviazione i cui valori fondamentali sono lo smorzamento, la frizione e la permeabilità.

Una delle ragioni più importanti per cui si utilizza la simulazione in lavori 3D è quella di ottenere effetti che sarebbero estremamente difficili o impossibili usando solo metodi “tradizionali” di modellazione di mesh e animazione a keyframe. Il caso dei fluidi è un buon esempio. Alcuni effetti di questo tipo possono essere ottenuti utilizzando primariamente modificatori di mesh. Ancora una volta, prendiamo come riferimento Blender: il fluid simulator di cui è dotato il software non fa altro che calcolare il movimento delle superfici dei fluidi trattandole come un reticolo di triangoli. Sulle superfici viaggiano e collidono tra loro un vasto numero di particelle e il trasferimento di forza, derivata appunto dalla collisione, guida il movimento della superficie del fluido. Questo metodo è in grado di produrre movimenti fluidi convincenti, oltre che di influenzare le caratteristiche del fluido stesso attraverso l’impostazione di una serie di parametri.

Esempio di sistema particellare per la simulazione dei fluidi

c) Rigging

L’animazione 3D riguarda la manipolazione di corpi solidi che nascono come modelli digitali. Una volta modellato un personaggio, l’animatore si trova dinanzi a mesh 3D statiche e prima di passare all’animazione vera e propria è necessaria un’operazione fondamentale, il rigging. Esso che consiste nella costruzione di un’armatura di base che fungerà da struttura scheletrica necessaria alla definizione di pose da disporre poi lungo la timeline dell’animazione. Il termine rig – in italiano “armatura” – si utilizza normalmente per definire il sistema di movimenti e di controllo delle marionette ed effettivamente in CG il principio è lo stesso: inserire oggetti Armature associati alle mesh e manipolare quegli oggetti osso (i bones – detti ottaedri – dotati di giunture, i cosiddetti joint) che permettono il controllo del movimento del personaggio (o character). Senza dimenticare nessuna articolazione (pensiamo alle ossa delle dita dei piedi il cui movimento diventa importante durante l’animazione), si procede, così alla costruzione dello scheletro del

character. La possibilità di “derivare” un osso da un altro fa sì che

l’ultimo bone creato sia automaticamente collegato al precedente e “imparentato” con esso. Ciò significa che le due ossa condivideranno uno o due giunti e che l’osso di gerarchia inferiore – detto osso figlio – potrà muoversi liberamente, ma la sua posizione dipenderà da quello di gerarchia superiore, il genitore. Quindi quando l’osso genitore si muove, sposterà anche il figlio. Nel caso in cui serva un osso indipendente è possibile togliere il rapporto di parentela e, se non si intendono modificare le mesh del personaggio in corrispondenza dell’osso in questione, basta rendere l’osso un semplice bone di controllo per la posizione degli altri. Esistono, inoltre, dei modificatori che operano sulle ossa grazie a degli automatismi e la funzione assolta a questo scopo si chiama Inverse

Kinematics Constraint, abbreviata molto spesso con IK. La cinematica

inversa – questa la traduzione italiana – è il processo di determinazione dei parametri di un oggetto articolato e flessibile che soddisfino il raggiungimento di una posa desiderata in base al posizionamento delle sole estremità. Tale principio è opposto a quello della Forward Kinematics (FK), ovvero la cinematica diretta, che richiede invece la pianificazione di ogni movimento per ogni parte che compone un oggetto. In altre parole, nell’animazione 3D è possibile calcolare il movimento di tutti i rami di una struttura articolata partendo dalla posizione iniziale e finale di un’estremità di un oggetto, senza dover necessariamente animare ogni singola articolazione: invece di conoscere le configurazioni dei giunti e determinare, partendo da questi dati, la postura di un organo terminale, è possibile procedere inversamente e ricavare il calcolo delle configurazioni da fare assumere ai giunti, partendo dalla determinazione della postura dell'organo terminale. Spesso è più facile per designer, artisti e animatori in CG definire la configurazione

spaziale di un gruppo di ossa muovendo solo alcune parti, piuttosto che manipolare direttamente gli angoli articolati. I sistemi di rig più complessi, comunque, mettono a disposizione dell’animatore uno

switch per passare semplicemente da una all’altra cinematica, a

seconda delle necessità.

Il rigging, inoltre, non riguarda esclusivamente l’animazione 3D di modelli necessariamente fotorealistici: anche software che consentono di creare animazioni vettoriali sono dotati di strumenti che permettono di articolare i loro character tramite la costruzione di un’armatura scheletrica. Pensiamo all’ultima versione del software Flash Professional CC (2015); essa integra, assieme alle varie tecniche manuali di sovrapposizione, morphing, onion skinning e rotoscopio, una funzionalità di cinematica inversa definita “strumento Osso” o “Bone tool”, quello che in After Effects compare sotto il nome di “strumento marionetta” e in Photoshop CS5 “puppet tool”. Lo strumento Osso permette di animare gli oggetti utilizzando ossi concatenati tra loro in armature lineari o ramificate con relazioni principale-secondario: quando un osso si muove, gli altri ossi collegati si muovono in relazione ad esso. Per usare la cinematica inversa ci si può servire di due tecniche differenti: o utilizzando una forma come contenitore per più ossi o concatenando delle istanze di simboli. Nel primo caso, ad esempio, è possibile aggiungere delle ossa al disegno di un serpente in modo da farlo strisciare in modo più realistico; tramite il secondo, invece, è possibile collegare dei clip filmato che mostrano un torso, un braccio, un avambraccio e una mano, in modo da farli muovere in modo realistico l'uno rispetto all'altro (ogni istanza ha un unico osso). Quando si aggiungono delle ossa a istanze di simboli o forme, Flash crea un nuovo livello per tali simboli o forme nella linea temporale, detto “livello di posa” che viene aggiunto alla linea temporale tra i livelli esistenti per mantenere il precedente

ordine di impilamento degli oggetti sullo stage. Che si voglia conferire maggiore realismo al movimento delle armature IK o che si intenda far muovere il proprio personaggio nel modo più bizzarro e artificiale possibile, il controllo della libertà dei movimento di ossa specifiche aiuta l’animatore a impostare vincoli e svincoli sulla base delle proprie necessità. Una funzionalità interessante è anche il cosiddetto “effetto molla” che può essere aggiunto alle ossa impostando le proprietà “intensità” e “smorzamento”: la prima regola la rigidità della molla (più alto è il valore, più rigido risulta l’effetto molla), la seconda, la velocità di decadimento dell’effetto molla (più alto è il valore, più rapida è la riduzione dell’effetto molla; con valore 0, l’effetto molla rimane inalterato a piena intensità per tutti i fotogrammi del livello di posa).

Al processo di rigging seguono le successive fasi di colorazione dei modelli tramite rivestimento di texture ed entrano i gioco una serie di fattori per la confezione delle scenografie (come la tecnica matte

painting121, ormai giunta ad uno stadio molto avanzato e oggi

impiegata per la realizzazione degli effetti speciali nei film), ma senza spostare il focus su questi argomenti, rimaniamo sulle tecniche d’animazione accennando anche a un sistema che si pone tra la simulazione fisica e il rigging, la motion capture.

121 Il matte painting (che si può tradurre con “pittura di sfondi”) è la tecnica usata in ambito cinematografico per permettere la rappresentazione di paesaggi o luoghi altrimenti troppo costosi se non impossibili da ricostruire o raggiungere direttamente. Il vecchio dipinto su lastre di vetro da integrare poi all’interno di riprese in live action è stato, oggi, completamente sostituito da immagini digitali create utilizzando riferimenti fotografici, modelli 3D e tavolette grafiche. Gli artisti del matte painting, combinano le loro texture create digitalmente, all'interno di ambienti 3D generati al computer, permettendo così anche i movimenti tridimensionali della camera.

Esempio di rigging di una gamba

d) Motion capture

La motion capture, conosciuta con l'abbreviazione mocap, in italiano "cattura del movimento” è il processo di registrazione di movimenti di oggetti e persone, una tecnica che trova applicazione in campo militare, sportivo, medico e dell’intrattenimento. In cinematografia, così come per lo sviluppo di videogiochi o di videoclip animati, essa si riferisce più precisamente alla registrazione di azioni compiute da attori in carne e ossa e all’utilizzo di queste informazioni per l’animazione di modelli digitali 2D e 3D. Quando la mocap include la cattura di espressioni facciali e quella delle dita si parla, tipicamente, di performance capture nelle cui sessioni il calcolo delle posizioni 3D avveniva, prima del XXI secolo, attraverso un dispositivo d’acquisizione fotogrammetrico – ovvero un sistema di più telecamere – che catturava le coordinate dei marcatori posizionati sulla tuta in velcro che l’attore indossava: tali dati venivano inviati al computer e questo elaborava un'immagine virtuale che riproduceva esattamente i movimenti dell’attore.

La vecchia necessità di indossare una tuta ricoperta da marcatori magnetici o riflettenti è stata rimpiazzata da tecniche innovative che realizzano il sistema di motion capture senza l’utilizzo di marcatori. I cosiddetti sistemi markerless – tra i quali vanno annoverati quelli sviluppati presso la Stanford University, l'Università del Maryland, MIT e l'Istituto Max Planck – non necessitano di attrezzature speciali: algoritmi informatici speciali sono stati progettati per consentire al sistema di analizzare flussi multipli di ingresso ottico e di individuare forme umane, suddividendole nei loro costituenti per il monitoraggio. Anche i movimenti della camera possono essere catturati (camera

Documenti correlati