Crowd Duplication

Crowd?

Se il regista vuole un esercito di 100 mila Guerrieri, dovrà come al solito chiamare degli artisti 3d. Diciamo che sta al regista scegliere se registrare tutto dal vivo o lasciar ricreare i personaggi in 3d. Per effettuare una crowd duplication o una duplicazione di massa è possibile utilizzare due tecniche.

crowd

Crowd: due tecniche possibili.

La prima tecnica del crowd duplication consiste nel girare del video con poche persone e poi, grazie alla memorizzazione di questo pattern, duplicarlo alll’itnerno della scena. Ad esempio se vogliamo riempire uno stadio, ne riprendiamo solo una parte in cui ci sono i tifosi e poi digitalmente con degli offset li spostiamo in tutta la scena. La seconda tecnica è molto simile ma invece di usare un pattern digitale campionato, si riprendono alcuni individui in posizioni differenti. Supponendo di voler avere un esercito in corsa, possiamo riprendere 100 individui con una camera ferma, li facciamo spostare al termine della prima ripresa e li riprendiamo nuovamente; facendo più registrazioni a distanze differenti è possibile riempire l’intera scena. Sarà sempre compito del compositore prendere tutti gli elementi e ricreare la scena finale ( usando i pattern o i diversi video con gli attori spazialmente mossi) di crowd duplication.

Nel prossimo articolo vederemo perchè si cra in digitale l’Atmosfera.

 

Warping e Morphing

Warping: uno strumento magico.

Il Warping è una di quelle cose magiche che solo un computer può fare. Immagina di attaccare con della colla una immagine a un pezzo di gomma molto elastico. A questo punto prova a tirare e a deformare la gomma, noterai che l’immagine si deforma in base a ciò che vai a toccare sulla gomma. Quando viene utilizzato il warping? Ogni volta che vuoi mettere una immagine sull’altra ma queste non coincidono subito all’istante.

warping

Morphing e Warping

Il morphing è il fratello maggiore del warping. Questa tecnica usa generalmente due warps e li dssolve incrociandoli creando un morphing, ma vederemo in futuro come fare esattamente questo nello specifico. Per ora possiamo ammirare come artisti digitali possono trasformare la faccia di  una persona in un’altra. Ovviamente chi fa la magia è il compositore e i software di oggi spesso forniscono ottimi strumenti di morphing. Alcune case di produzione producono plugin con tecniche avanzatissime di morphing e warping permettendo a un software generico di avere funzioni maggiori. Altre case invece creano software solo di morphing eccellendo creando ottimi algoritmi dopo anni di studio.

morphing

Nell’esempio sovarstante vediamo una transizione di immagini mediante l’utilizzo del morphing, tratti comuni nella prima e ultima faccia vengono identificati e facendo un warping di questi punti (tracking) si ottiene il morphing dalla prima all’ultima. In ogni caso per isolare una faccia intera è necessario riprendere su bluescreen o greenscreen o isolare mediante rotoscoping il soggetto dal background. Nessuna paura, vedremo nei dettagli come fare nei prossimi articoli.

Nel prossimo articolo vedremo: Bullet Time

 

Tracking

Cos’è il Tracking ?

Il tracking è il fratello minore del camera tracking. Con il camera tracking, l’artista di CGI tracca ( segue ) centinaia di punti in una scena e usa quelle informazioni per costruire modelli 3d e una camera virtuale precisa. Il tracking generico chiamato anche “motion tracking” è usato per traccare pochi punti e utilizzare i dati ottenuti per compositare una immagine 2d su un’altra immagine 2d.

Tracking e Corner Pin.

Diciamo di avere come prima risorsa un video, il quale non è altro che una sequenza di immagini. L’obiettivo è di metterlo in uno schermo, volutamere ripreso senza nulla al suo interno ma solo con dei puntini di tracking. Il programma di tracking blocca quei puntini e va a traccarli per tutta la durata della scena. A questo punto, i 4 angoli del nostro video vengono stirati ai vertici dei punti traccati sullo schermo e come risultato abbiamo un video nello schermo come se fosse stato girato per davvero. Ovviamente è necessaria sempre una correzione colore per permettere una integrazione perfetta. Nel mondo del cinema questa tecnica è molto usata perche rigirare uno shot, se il video nello schermo non mostra esattaemnte quello che vuole il regista, può essere molto costoso e quindi è meglio evitare queste problematiche affidando tutto alla post produzione ( cosa che si fa troppo spesso anche per cose banali e sopratutto senza gli opportuni supporti – mancanza di tracker, bluescreen danneggiato,ecc ). In ogni caso la tecnica che permette di seguire dei punti e quindi nel nostro caso che ci permette di compositare un oggetto sull’altro prende nome di tracking.

Nel prosismo articolo vedremo: Warping e Morphing

 

Bluescreen

Bluescreen e Set Extension.

Ci sono molte situazioni nelle quali è necessario piazzare un attore in una scena reale e questa può essere troppo dispendiosa, troppo pericolosa o persino impossibile da realizzare. In queste situazioni, vorresti filmare il tuo attore in un ambiente poco costoso e sicuro e più tardi compositarlo all’interno di uno sfondo costoso, pericolo e impossibile. Dovremo allora usare il bluescreen compositing. L’attore è filmato di fronte a uno sfondo completamente blu ( per tal motivo chiamato bluescreen ) per rendere le cose facili al computer, il quale dovrà isolare il nostro attore e scartare tutto il resto.

bluescreen

Estrarre il “matte” dal Bluescreen

Il bluescreen compositing offre sempre una serie di sfide nel mondo della CGI perchè il compositore deve prima isolare l’attore dal colore di background creando una maschera di alta qualità chiamata “matte”. Questa mashera è utilizzata per selezionare perfettaemnte il profilo degli oggetti e/o persone che vogliamo vadano sopra agli elementi creati in computer grafica. Il colore di background può essere anche verde e in questo caso è chiamato greenscreen invece di bluescreen ma il principo è lo stesso per entrambi i casi. Il computer determina il colore da bucare in ogni frame e genera una maschera che viene utilizzata per compositare l’attore sullo sfondo creato successivamente alla ripresa. E qui entrano in gioco tutte le qualità del compositore  perchè molto spesso gli oggetti ripresi sul bluescreen differiscono di molto dallo sfondo ricreato; è necessario infatti fare una attenta analisi, correzione colore e fusione per integrarli al meglio. Bello il bluescreen vero ?

Nel prossimo articolo vedremo: Tracking

 

Camera Tracking

Cos’è il camera Tracking ?

I registi e in generale tutti coloro che hanno in mano una videocamera odiano stare fermi. Adorano fare carrellate verso eserciti in movimento o girare attorno al personaggio principale. Tutto tranquillo se il risultato è solo una ripresa live, un po meno facile se invece bisogna integrare alcuni componenti fatti in CGI e quindi dover usare del camera tracking. Se la macchina da presa si muove, anche la camera in cgi dovrà fare lo stesso per far sì che sia in perfetta sincronia con la camera reale. Altrimenti si vedrebbero tutti gli elementi digitali scivolare sulla ripresa reale e non sembrerebbero quindi bloccati sulla scena. Ci sono speciali software che si occupano quindi di risolvere la scena reale creandone la sua copia in digitale ( almeno del percorso della macchina da presa ).

camera tracking

Gli step del Camera Tracking.

Il camera tracking consiste in due parti. All’inizio la ripresa reale è analizzata dal software di camera tracking. Il software cerca di trovare punti ( pixel ) comuni tra i frame adiacenti di una ripresa e il tracca ( li segue ) per tutta la durata della ripresa. Questo produce un modello 3d del terreno della scena e cosi anche le informazioni di movimento della macchina da presa e/o videocamera. Una volta costruiti e corretti i movimenti di camera digitale e creato dei props in bassa risoluzione rispecchianti la scena reale, il tutto viene dato in pasto al resto del team di cgi. Gli artisti 3d useranno le informazioni e i modelli a bassa risoluzione del camera tracking per orientarsi all’interno della scena e quindi posizionare eventuali oggetti tridimensionali. E’ importantissimo che i dati siano corretti altrimenti gli oggetti sarebbero in posizioni errate rispetto alla ripresa reale e in più potrebbero anche avere dimensioni e visioni prospettiche errate. Lo sbaglio di un matchmover nello sviluppo del camera tracking distrugge tutto il lavoro nel resto della catena alterando e rendendo inutile tutto il lavoro di posizionamento oggetti e render. Una volta renderizzati gli oggetti digitali il materiale arriva al compositore il quale prenderà la scena reale e gli elementi di camera tracking e ne farà un bellissimo output.

Nel prossio articolo vedremo : Bluescreen

 

Twitter | Instagram | Bitbucket | Battlelog | LinkedIn | GitHub

Google Profile


My name is Giovanni Di Grezia, but people call me xgiovio.

Here is my homepage: .

I am a VFX Artist and Software Developer

And this is a picture of me.

Giovanni Di Grezia