Bullet time

Bullet Time : The Matrix

Tutto ricordiamo la spettacolare camera volante attorno Keanu Reeves in The Matrix, da allora le riprese in bullet time sono diventate pane quotidiano per gli effetti visivi. Il bullet time rappresenta un momento di azione congelato, il bello è che il tutto può funzionare senza aver bisogno di effetti visivi.

bullet timeCome funziona il Bullet time ?

Per realizzare l’effetto Bullet time è necessario costruire un set in cui le divere telecamere vengono disposte ad arco attorno al soggetto principale. Tutte le camere sono controllate elettronicamente e se attivate contemporaneamente, si può avere il congelamento di una animazione. Infatti, avendo diverse prospettive del soggetto in un determinato istante, è possibile ricostruire una animazione in turn around ( girarci attorno in pratica ) e quindi dare l’effetto di un movimento di camera congelando il tempo. In teoria è tutto semplice ma in realtà il compositore ha un bel po di lavoro da fare prima di avere un buon bullet time. Innanzitutto una volta estratti i frame dalle singole videocamere, bisogna allinearli ed eseguire una tecnica che si chiama image stabilization ( stabilizzazione di camera ) con il quale è possibile eliminare il jitter ( tremolio) dato dalla posizione inesatta di ogni camera nella circonferenza: in teoria,infatti, tutte le camere dovrebbero avere il centro di fuoco esattamente sulla circonferenza di un cerchio immaginario con nel mezzo il nostro attore. Dopo aver sistemato questo fattore, il compositore si occuperà anche di regolare la luminosità, l’esposizione, l’eventuale grana in modo da avere un video il più possibile uniforme durante il playback del bullet time.

optical flow

Optical flow: l’arma nascosta del Bullet time

Un altro aspetto che il compositor dovrà affrontare è il retiming del bullet time. Supponendo di voler avere un girato di 4 secondi in cui ruotiamo intorno al nostro eroe, avremo bisognodi 24 x 4 = 96 frame: questo perchè lo standard cinematografico al momento in cui vi scrivo è 24 frame al secondo ( cosa che dovrebbe cambiare con l’avvento di Lo Hobbit nel dicembre del 2012). In teoria quindi basterebbero 96 camere, da cui prendiamo 1 frame ciascuno. Il compositor si troverebbe  ad allineare 96 frames, lavoro piuttosto lungo e che potrebbe portare artifatti. Considerando sempre il problema più importante di tutti i tempi, il denaro, andremo ad usare invece di 96 camere, 48. Avremo cosi 48 frame contro i 96 necessari per un buon Bullet time. In gioco a questo punto entra un’altra tecnica chiamata optical flow. Con l’optical flow è possibile traccare ogni singolo pixel di una immagine e cosi, analizzando il frame precedene e successivo, ricreare ulteriori frame intermedi. Questo permetterebbe di stendere i 48 frame sui totali 96 e di ricostruire i frame mancanti intermedi. ovviaemnte si parla di un compromesso che in teoria è qualitativamnte inferiore ai 96 frames ma praticamente, se l’occhio umano non se ne accorge, del tutto accettabile.

Nel prossimo articolo vedremo : Crowd Duplication

 

Warping e Morphing

Warping: uno strumento magico.

Il Warping è una di quelle cose magiche che solo un computer può fare. Immagina di attaccare con della colla una immagine a un pezzo di gomma molto elastico. A questo punto prova a tirare e a deformare la gomma, noterai che l’immagine si deforma in base a ciò che vai a toccare sulla gomma. Quando viene utilizzato il warping? Ogni volta che vuoi mettere una immagine sull’altra ma queste non coincidono subito all’istante.

warping

Morphing e Warping

Il morphing è il fratello maggiore del warping. Questa tecnica usa generalmente due warps e li dssolve incrociandoli creando un morphing, ma vederemo in futuro come fare esattamente questo nello specifico. Per ora possiamo ammirare come artisti digitali possono trasformare la faccia di  una persona in un’altra. Ovviamente chi fa la magia è il compositore e i software di oggi spesso forniscono ottimi strumenti di morphing. Alcune case di produzione producono plugin con tecniche avanzatissime di morphing e warping permettendo a un software generico di avere funzioni maggiori. Altre case invece creano software solo di morphing eccellendo creando ottimi algoritmi dopo anni di studio.

morphing

Nell’esempio sovarstante vediamo una transizione di immagini mediante l’utilizzo del morphing, tratti comuni nella prima e ultima faccia vengono identificati e facendo un warping di questi punti (tracking) si ottiene il morphing dalla prima all’ultima. In ogni caso per isolare una faccia intera è necessario riprendere su bluescreen o greenscreen o isolare mediante rotoscoping il soggetto dal background. Nessuna paura, vedremo nei dettagli come fare nei prossimi articoli.

Nel prossimo articolo vedremo: Bullet Time

 

Tracking

Cos’è il Tracking ?

Il tracking è il fratello minore del camera tracking. Con il camera tracking, l’artista di CGI tracca ( segue ) centinaia di punti in una scena e usa quelle informazioni per costruire modelli 3d e una camera virtuale precisa. Il tracking generico chiamato anche “motion tracking” è usato per traccare pochi punti e utilizzare i dati ottenuti per compositare una immagine 2d su un’altra immagine 2d.

Tracking e Corner Pin.

Diciamo di avere come prima risorsa un video, il quale non è altro che una sequenza di immagini. L’obiettivo è di metterlo in uno schermo, volutamere ripreso senza nulla al suo interno ma solo con dei puntini di tracking. Il programma di tracking blocca quei puntini e va a traccarli per tutta la durata della scena. A questo punto, i 4 angoli del nostro video vengono stirati ai vertici dei punti traccati sullo schermo e come risultato abbiamo un video nello schermo come se fosse stato girato per davvero. Ovviamente è necessaria sempre una correzione colore per permettere una integrazione perfetta. Nel mondo del cinema questa tecnica è molto usata perche rigirare uno shot, se il video nello schermo non mostra esattaemnte quello che vuole il regista, può essere molto costoso e quindi è meglio evitare queste problematiche affidando tutto alla post produzione ( cosa che si fa troppo spesso anche per cose banali e sopratutto senza gli opportuni supporti – mancanza di tracker, bluescreen danneggiato,ecc ). In ogni caso la tecnica che permette di seguire dei punti e quindi nel nostro caso che ci permette di compositare un oggetto sull’altro prende nome di tracking.

Nel prosismo articolo vedremo: Warping e Morphing

 

Bluescreen

Bluescreen e Set Extension.

Ci sono molte situazioni nelle quali è necessario piazzare un attore in una scena reale e questa può essere troppo dispendiosa, troppo pericolosa o persino impossibile da realizzare. In queste situazioni, vorresti filmare il tuo attore in un ambiente poco costoso e sicuro e più tardi compositarlo all’interno di uno sfondo costoso, pericolo e impossibile. Dovremo allora usare il bluescreen compositing. L’attore è filmato di fronte a uno sfondo completamente blu ( per tal motivo chiamato bluescreen ) per rendere le cose facili al computer, il quale dovrà isolare il nostro attore e scartare tutto il resto.

bluescreen

Estrarre il “matte” dal Bluescreen

Il bluescreen compositing offre sempre una serie di sfide nel mondo della CGI perchè il compositore deve prima isolare l’attore dal colore di background creando una maschera di alta qualità chiamata “matte”. Questa mashera è utilizzata per selezionare perfettaemnte il profilo degli oggetti e/o persone che vogliamo vadano sopra agli elementi creati in computer grafica. Il colore di background può essere anche verde e in questo caso è chiamato greenscreen invece di bluescreen ma il principo è lo stesso per entrambi i casi. Il computer determina il colore da bucare in ogni frame e genera una maschera che viene utilizzata per compositare l’attore sullo sfondo creato successivamente alla ripresa. E qui entrano in gioco tutte le qualità del compositore  perchè molto spesso gli oggetti ripresi sul bluescreen differiscono di molto dallo sfondo ricreato; è necessario infatti fare una attenta analisi, correzione colore e fusione per integrarli al meglio. Bello il bluescreen vero ?

Nel prossimo articolo vedremo: Tracking

 

Camera Tracking

Cos’è il camera Tracking ?

I registi e in generale tutti coloro che hanno in mano una videocamera odiano stare fermi. Adorano fare carrellate verso eserciti in movimento o girare attorno al personaggio principale. Tutto tranquillo se il risultato è solo una ripresa live, un po meno facile se invece bisogna integrare alcuni componenti fatti in CGI e quindi dover usare del camera tracking. Se la macchina da presa si muove, anche la camera in cgi dovrà fare lo stesso per far sì che sia in perfetta sincronia con la camera reale. Altrimenti si vedrebbero tutti gli elementi digitali scivolare sulla ripresa reale e non sembrerebbero quindi bloccati sulla scena. Ci sono speciali software che si occupano quindi di risolvere la scena reale creandone la sua copia in digitale ( almeno del percorso della macchina da presa ).

camera tracking

Gli step del Camera Tracking.

Il camera tracking consiste in due parti. All’inizio la ripresa reale è analizzata dal software di camera tracking. Il software cerca di trovare punti ( pixel ) comuni tra i frame adiacenti di una ripresa e il tracca ( li segue ) per tutta la durata della ripresa. Questo produce un modello 3d del terreno della scena e cosi anche le informazioni di movimento della macchina da presa e/o videocamera. Una volta costruiti e corretti i movimenti di camera digitale e creato dei props in bassa risoluzione rispecchianti la scena reale, il tutto viene dato in pasto al resto del team di cgi. Gli artisti 3d useranno le informazioni e i modelli a bassa risoluzione del camera tracking per orientarsi all’interno della scena e quindi posizionare eventuali oggetti tridimensionali. E’ importantissimo che i dati siano corretti altrimenti gli oggetti sarebbero in posizioni errate rispetto alla ripresa reale e in più potrebbero anche avere dimensioni e visioni prospettiche errate. Lo sbaglio di un matchmover nello sviluppo del camera tracking distrugge tutto il lavoro nel resto della catena alterando e rendendo inutile tutto il lavoro di posizionamento oggetti e render. Una volta renderizzati gli oggetti digitali il materiale arriva al compositore il quale prenderà la scena reale e gli elementi di camera tracking e ne farà un bellissimo output.

Nel prossio articolo vedremo : Bluescreen

 

Twitter | Instagram | Bitbucket | Battlelog | LinkedIn | GitHub

Google Profile


My name is Giovanni Di Grezia, but people call me xgiovio.

Here is my homepage: .

I am a VFX Artist and Software Developer

And this is a picture of me.

Giovanni Di Grezia