Filter Contents in VFX Docs

Crowd Duplication

Crowd?

Se il regista vuole un esercito di 100 mila Guerrieri, dovrà come al solito chiamare degli artisti 3d. Diciamo che sta al regista scegliere se registrare tutto dal vivo o lasciar ricreare i personaggi in 3d. Per effettuare una crowd duplication o una duplicazione di massa è possibile utilizzare due tecniche.

crowd

Crowd: due tecniche possibili.

La prima tecnica del crowd duplication consiste nel girare del video con poche persone e poi, grazie alla memorizzazione di questo pattern, duplicarlo alll’itnerno della scena. Ad esempio se vogliamo riempire uno stadio, ne riprendiamo solo una parte in cui ci sono i tifosi e poi digitalmente con degli offset li spostiamo in tutta la scena. La seconda tecnica è molto simile ma invece di usare un pattern digitale campionato, si riprendono alcuni individui in posizioni differenti. Supponendo di voler avere un esercito in corsa, possiamo riprendere 100 individui con una camera ferma, li facciamo spostare al termine della prima ripresa e li riprendiamo nuovamente; facendo più registrazioni a distanze differenti è possibile riempire l’intera scena. Sarà sempre compito del compositore prendere tutti gli elementi e ricreare la scena finale ( usando i pattern o i diversi video con gli attori spazialmente mossi) di crowd duplication.

Nel prossimo articolo vederemo perchè si cra in digitale l’Atmosfera.

 

Bullet time

Bullet Time : The Matrix

Tutto ricordiamo la spettacolare camera volante attorno Keanu Reeves in The Matrix, da allora le riprese in bullet time sono diventate pane quotidiano per gli effetti visivi. Il bullet time rappresenta un momento di azione congelato, il bello è che il tutto può funzionare senza aver bisogno di effetti visivi.

bullet timeCome funziona il Bullet time ?

Per realizzare l’effetto Bullet time è necessario costruire un set in cui le divere telecamere vengono disposte ad arco attorno al soggetto principale. Tutte le camere sono controllate elettronicamente e se attivate contemporaneamente, si può avere il congelamento di una animazione. Infatti, avendo diverse prospettive del soggetto in un determinato istante, è possibile ricostruire una animazione in turn around ( girarci attorno in pratica ) e quindi dare l’effetto di un movimento di camera congelando il tempo. In teoria è tutto semplice ma in realtà il compositore ha un bel po di lavoro da fare prima di avere un buon bullet time. Innanzitutto una volta estratti i frame dalle singole videocamere, bisogna allinearli ed eseguire una tecnica che si chiama image stabilization ( stabilizzazione di camera ) con il quale è possibile eliminare il jitter ( tremolio) dato dalla posizione inesatta di ogni camera nella circonferenza: in teoria,infatti, tutte le camere dovrebbero avere il centro di fuoco esattamente sulla circonferenza di un cerchio immaginario con nel mezzo il nostro attore. Dopo aver sistemato questo fattore, il compositore si occuperà anche di regolare la luminosità, l’esposizione, l’eventuale grana in modo da avere un video il più possibile uniforme durante il playback del bullet time.

optical flow

Optical flow: l’arma nascosta del Bullet time

Un altro aspetto che il compositor dovrà affrontare è il retiming del bullet time. Supponendo di voler avere un girato di 4 secondi in cui ruotiamo intorno al nostro eroe, avremo bisognodi 24 x 4 = 96 frame: questo perchè lo standard cinematografico al momento in cui vi scrivo è 24 frame al secondo ( cosa che dovrebbe cambiare con l’avvento di Lo Hobbit nel dicembre del 2012). In teoria quindi basterebbero 96 camere, da cui prendiamo 1 frame ciascuno. Il compositor si troverebbe  ad allineare 96 frames, lavoro piuttosto lungo e che potrebbe portare artifatti. Considerando sempre il problema più importante di tutti i tempi, il denaro, andremo ad usare invece di 96 camere, 48. Avremo cosi 48 frame contro i 96 necessari per un buon Bullet time. In gioco a questo punto entra un’altra tecnica chiamata optical flow. Con l’optical flow è possibile traccare ogni singolo pixel di una immagine e cosi, analizzando il frame precedene e successivo, ricreare ulteriori frame intermedi. Questo permetterebbe di stendere i 48 frame sui totali 96 e di ricostruire i frame mancanti intermedi. ovviaemnte si parla di un compromesso che in teoria è qualitativamnte inferiore ai 96 frames ma praticamente, se l’occhio umano non se ne accorge, del tutto accettabile.

Nel prossimo articolo vedremo : Crowd Duplication

 

Warping e Morphing

Warping: uno strumento magico.

Il Warping è una di quelle cose magiche che solo un computer può fare. Immagina di attaccare con della colla una immagine a un pezzo di gomma molto elastico. A questo punto prova a tirare e a deformare la gomma, noterai che l’immagine si deforma in base a ciò che vai a toccare sulla gomma. Quando viene utilizzato il warping? Ogni volta che vuoi mettere una immagine sull’altra ma queste non coincidono subito all’istante.

warping

Morphing e Warping

Il morphing è il fratello maggiore del warping. Questa tecnica usa generalmente due warps e li dssolve incrociandoli creando un morphing, ma vederemo in futuro come fare esattamente questo nello specifico. Per ora possiamo ammirare come artisti digitali possono trasformare la faccia di  una persona in un’altra. Ovviamente chi fa la magia è il compositore e i software di oggi spesso forniscono ottimi strumenti di morphing. Alcune case di produzione producono plugin con tecniche avanzatissime di morphing e warping permettendo a un software generico di avere funzioni maggiori. Altre case invece creano software solo di morphing eccellendo creando ottimi algoritmi dopo anni di studio.

morphing

Nell’esempio sovarstante vediamo una transizione di immagini mediante l’utilizzo del morphing, tratti comuni nella prima e ultima faccia vengono identificati e facendo un warping di questi punti (tracking) si ottiene il morphing dalla prima all’ultima. In ogni caso per isolare una faccia intera è necessario riprendere su bluescreen o greenscreen o isolare mediante rotoscoping il soggetto dal background. Nessuna paura, vedremo nei dettagli come fare nei prossimi articoli.

Nel prossimo articolo vedremo: Bullet Time

 

Tracking

Cos’è il Tracking ?

Il tracking è il fratello minore del camera tracking. Con il camera tracking, l’artista di CGI tracca ( segue ) centinaia di punti in una scena e usa quelle informazioni per costruire modelli 3d e una camera virtuale precisa. Il tracking generico chiamato anche “motion tracking” è usato per traccare pochi punti e utilizzare i dati ottenuti per compositare una immagine 2d su un’altra immagine 2d.

Tracking e Corner Pin.

Diciamo di avere come prima risorsa un video, il quale non è altro che una sequenza di immagini. L’obiettivo è di metterlo in uno schermo, volutamere ripreso senza nulla al suo interno ma solo con dei puntini di tracking. Il programma di tracking blocca quei puntini e va a traccarli per tutta la durata della scena. A questo punto, i 4 angoli del nostro video vengono stirati ai vertici dei punti traccati sullo schermo e come risultato abbiamo un video nello schermo come se fosse stato girato per davvero. Ovviamente è necessaria sempre una correzione colore per permettere una integrazione perfetta. Nel mondo del cinema questa tecnica è molto usata perche rigirare uno shot, se il video nello schermo non mostra esattaemnte quello che vuole il regista, può essere molto costoso e quindi è meglio evitare queste problematiche affidando tutto alla post produzione ( cosa che si fa troppo spesso anche per cose banali e sopratutto senza gli opportuni supporti – mancanza di tracker, bluescreen danneggiato,ecc ). In ogni caso la tecnica che permette di seguire dei punti e quindi nel nostro caso che ci permette di compositare un oggetto sull’altro prende nome di tracking.

Nel prosismo articolo vedremo: Warping e Morphing

 

Bluescreen

Bluescreen e Set Extension.

Ci sono molte situazioni nelle quali è necessario piazzare un attore in una scena reale e questa può essere troppo dispendiosa, troppo pericolosa o persino impossibile da realizzare. In queste situazioni, vorresti filmare il tuo attore in un ambiente poco costoso e sicuro e più tardi compositarlo all’interno di uno sfondo costoso, pericolo e impossibile. Dovremo allora usare il bluescreen compositing. L’attore è filmato di fronte a uno sfondo completamente blu ( per tal motivo chiamato bluescreen ) per rendere le cose facili al computer, il quale dovrà isolare il nostro attore e scartare tutto il resto.

bluescreen

Estrarre il “matte” dal Bluescreen

Il bluescreen compositing offre sempre una serie di sfide nel mondo della CGI perchè il compositore deve prima isolare l’attore dal colore di background creando una maschera di alta qualità chiamata “matte”. Questa mashera è utilizzata per selezionare perfettaemnte il profilo degli oggetti e/o persone che vogliamo vadano sopra agli elementi creati in computer grafica. Il colore di background può essere anche verde e in questo caso è chiamato greenscreen invece di bluescreen ma il principo è lo stesso per entrambi i casi. Il computer determina il colore da bucare in ogni frame e genera una maschera che viene utilizzata per compositare l’attore sullo sfondo creato successivamente alla ripresa. E qui entrano in gioco tutte le qualità del compositore  perchè molto spesso gli oggetti ripresi sul bluescreen differiscono di molto dallo sfondo ricreato; è necessario infatti fare una attenta analisi, correzione colore e fusione per integrarli al meglio. Bello il bluescreen vero ?

Nel prossimo articolo vedremo: Tracking

 

Twitter | Instagram | Bitbucket | Battlelog | LinkedIn | GitHub

Google Profile


My name is Giovanni Di Grezia, but people call me xgiovio.

Here is my homepage: .

I am a VFX Artist and Software Developer

And this is a picture of me.

Giovanni Di Grezia