Pulling the matte

Estrapolare il matte.

Estrapolare una maschera da un bluescreen è chiamato “pulling the matte” e questa procedura viene effettuata mediate il keyer.

I keyer è un tool presente in qualsiasi software di compositing ed è disponibile in diverse versioni. Ogni keyer ha un algoritmo di estrazione del matte e spesso i diversi tool sono disponibili come plugin di terze parti per software limitati tecnicamente. Un keyer può funzionare su alcuni bluescreen meglio di altri ed è per questo che di solito vengono combinati per risolvere completamente una immagine.

pulling the matte

Differenti input.

I keyer possono essere aiutati mediante degli input. L’utente può modificare degli slider per migliorare la resa finale e può fornire delle maschere aggiuntive per includere o escludere dal solving alcune aree dell’immagine. Una maschera di garbage serve per evidenziare al software quali parti vogliamo escludere dal solving e che ci risolutano facilmente selezionabili mediate rotoscoping manuale. Una maschera di holdout evidenzia invece zone dove la maschera viene esclusa dal solving poichè sicuramente parte del character.

Nel prossimo articolo vedremo il compositing di base di un bluescreen.

 

Bluescreen Compositing

Bluescreen ed Errori.

Quando un personaggio è filmato per essere compositato in un secondo momento, viene posto di fronte ad un bluescreen. Uno sfondo uniforme permette al software di bucare facilmente il plate ottenendo la maschera voluta del solo character. Il keying è un’arte molto difficile e un punto molto importante per un corretto composting. Un matte sbagliato determina il fallimento di tutti gli stage successivi e spesso, nel mondo reale, si cerca di estrarre maschere da bluescreen sempre più errati.

Il bluescreen è un nome dato per convenzione; il colore di bake può variare, può essere verde, rosso, l’importante è che sia un colore uniforme. In generale quando si parla di bluescreen si fa riferimento al keying in generale e non specificatamente al blu come colore di sfondo. Estrarre il matte è davvero una tecnica molto difficile, questo perchè stiamo cercando di estrarre una maschera da una scena reale e non da una immagine in cgi matematicamente perfetta. I problemi su un bluescreen possono essere diversi: sotto-esposizione, fuori fuoco, grana eccessiva, luce errata e colore di baking errato. Il compositor dovrà comunque estrarre una maschera corretta e fixare tutti i problemi.

bluescreen

Il keyer.

Il tool che si occupa di bucare un plate è il keyer. Questo tool comprende una serie di complessi algoritmi i quali si occupano di eliminare il colore di background isolando il foreground mediante una maschera. Il keyer esegue anche altri lavori come il despill ( eliminazine del colore di backgorund sul foreground ) e la color correction ( fondamentale prima della premoltiplica ). Il keyer comprende tanti attributi che il compositor dovrà conoscere per ottenere una maschera perfetta nel minor tempo possibile. Ci sono casi in cui il keyer è inefficace singolarmente e viene applicato in cascata dopo altri keyer risolvendo solo parti specifiche dell’immagine. In altri casi ancora, è così difficile estrarre una matte con un keyer che si ricorre un rotoscoping manuale.

Nel prossimo articolo vedremo il pulling del matte.

 

RGB

RGB e l’occhio umano.

L’occhio umano teoricamente dovrebbe vedere tutto lo spettro della luce ma in realtà è sensibile alle lunghezze d’onda del rosso,verde e blu (RGB). Otteniamo tutti i colori nel mezzo perchè il cervello unisce le porzioni di rosso, verde per ottenere il giallo ad esempio. Lo stesso trucchetto lo usano anche i display, gli lcd e gli altri dispositivi elettronici. Il nostro pixel viene scomposto nei tre colori primari che chiameremo RGB e la somma della componente di ciascun canale darà al pixel la sua tonalità solida.

rgb

Rispetto alle immagini bianco nere, ci troviamo di fronte quindi a immagini a più canali, nel nostro caso 3 e quindi RGB. Mentre precedentemente bastavano 256 sfumature di un singolo canale per comporre la nostra immagine, ora se vogliamo rappresentare un colore possiamo blendare le 256 varaiizoni del blu con le 256 del rosso e le 256 del verde. L’esempio è valido ovviamente se lavoriamo con immagini a 8 bit per canale. Ora è importante capire che ogni canale per i dispositivi digitali è semplicemente una scala di sfumature. Il rosso per il computer sarà una scala dai valori di luminosità  e andrà da 0 a 255 proprio come la scala di grigi vista precedentemente, lo stesso per il blu e per il verde. Le domande allora sorgono spontanee. Se i canali sono 3 e sono in scala di grigi, come facciamo a vedere i colori RGB? e visto che le immagini poi sarebbero a colori come facciamo a vedere quelle bianco e nero?

RGB e colori.

La risposta alla prima domanda è semplice. In realtà tutto ciò che è digitale è solo e sarà sempre un numero. Ciò che ci permette di vedere i colori RGB solo le lampade. Per avere un esempio più chiaro immaginiamo un proiettore, quest’ultimo avrà al suo interno 3 lampade di colore rosso,verde,blue. Ogni canale della nostra immagine dirà al proiettore con quale intensità dovrà accendere quella lampada. Se ad esempio vogliamo una immagine rossa, dei tre canali RGB, il rosso sarà a 255, mentre gli altri due a 0. Considerando lo standard RGB possiamo anche dire 255,0,0. Se ad esempio vogliamo un colore intermedio le lampade saranno regolate di conseguenza per blendare al meglio i colori. E’ importante capire che è solo un trucco per ingannare l’occhio, per fargli credere che ciò che sta vedendo in realtà emana luce propria con quella intensità. La scala digitale in input a un display quindi viene convertita in un valore elettrico che andrà ad alimentare il fosforo, la lampada o il led.

RGB e immagini bianco nero.

Come fa una immagine a colori a mostrare una immagine bianco nero? Semplice. Trasformiamo tutti i canali in un unico canale. Per far questo basta avere lo stesso valore su tutti e 3 i canali RGB. Se vogliamo un nero assoluto semplicemente non accendiamo niente, i pixel sono spenti e abbiamo quindi RGB 0,0,0: tra l’altro lo vediamo constantemente quando la nostra tv è spenta. Se vogliamo una immagine bianca allora basta dare 255,255,255 a tutti i canali. Avremo il bianco massimo assoluto. Se vogliamo un grigio intermedio possiamo far assumere ai nostri RGB un qualsiasi valore tra 0 e 255, ‘importante è che siano sempre linkati: 122,122,122 – 40,40,40- ecc.

Nel prissimo articolo vedremo le immagini a 4 canali.

 

Software di Compositing

Software di Compositing : le basi.

Gli effetti visivi di cui abbiamo parlato nei precedenti articoli vengono tutti riprodotti utilizzando software ma la domanda sorge spontanea: come è possibile realizzare cosi tante cose con un solo software di compositing? In realtà i software di compositing fanno ben oltre le semplici operazioni, sono una sorta di toolbox con tantissimi strumenti utili per i vari casi, combinati tra loro fanno di tutto. I tool principali sono quelli dedicati al keying (buco) del bluescreen/greenscreen, correzione colore, animazione, tracking, morphing e blending tra immagini 2d. Tutti i software di compositing generalemnte permettono di vedere le nostre immagini a step, applicando pian piano tutti i filtri ed effetti di cui abbiamo bisogno; da una preview generica ci portano pian piano verso il rendering definitivo esportabile in differenti formati.

software-compositing

Software di compositing : Hardware vs Software.

I software di compositing, in ogni caso, differiscono per la quantità dei tool che posseggono e sopratutto la lorò qualità. I migliori software di compositing ovviamente sono quelli che ci permettono di ottenere il miglior resultato nel minor tempo possibile e tutto questo è possibile grazie ad algoritmi e studi approfonditi condotti da ingegneri delle diverse case di produzione software. Alcuni software hanno tool di morphing e altri no; alcuni hanno tool molto potenti sul rotoscoping, altri permettono semplicemente di discegnare una maschera. Di solito tutti i software di compositing hanno in comune la capacità di aggiungere plugin per aumentarne le funzioni. Cosa non da poco considerando che poter aggiungere funzioni ad un software consente agli sviluppatori esterni di poter integrare proprie soluzioni di resolving. I plugin sono cosi importanti che spesso una suite di plugin puù costare anche di più del software di compositing stesso.
I software di compositing possono essere divisi in due grandi fasce. I primi sono i software di compositing di medie grandi dimensioni e solitamente hanno hardware dedicato con software scritto esclusivamente per funzionare su determinate macchine, parliamo di Flame, Inferno, ecc. I secondi invece sono quelli di uso comune, scritti per poter girare su macchine con hardware discreto e giusti drivers, parliamo in questo caso dei conosciutissimi Shake, After Effects, Fusion, Nuke,ecc.
I sistemi hardware di solito costano migliaia e migliaia di dollari ma sono legati ai tempi di produzione: negli effetti visivi la velocità costa! I sistemi desktop invece costano molto meno, una singola workstation con relativo software può costare meno di 10000 euro. Sia i sistemi hardware, sia quelli desktop possono distribuire il carico di lavoro su più macchine, la quale rete prende nome di render farm. Non si tratta altro che di rack e rack di computer posti in stanze, i quali renderizzano i diversi frame in uscita per ridurre i tempi di calcolo. I software di compositing moderni hanno tutti una GUI, una interfaccia grafica per intenderci, dove tutti possiamo cliccare bottoni e pulsanti e fare le cose in modo rapido. Alcuni sistemi pero funzionano solo via riga di comando senza interfaccia grafica e molto spesso le render farm vengono gestite così. Un altro fattore da considerare è anche l’avvento delle utime soluzioni di programmazioni di Nvidia, Cuda. Cuda ha rivoluzionato il calcolo parallelo permettendo ai software di compositing di renderizzare usando la scheda video invece della cpu. E’ importante capire come la velocità influenza i costi e sopratutto l’investimento in determinate tecnologie.

Software di Compositing : Cuda e Iray

Nell’ultimo film di Michael Bay disponibile ad oggi “Transformers 3″ molti immaginavano un intero rendering basato su nurbs e Renderman ( software sviluppato dalla Pixar) ma in realtà il film è stato renderizzato usando un motore diverso ” Iray” utilizzando Cuda su Workstation Nvidia. Poligoni allo stato puro.

Nel prossimo articolo vedremo il  compositing a nodi

 

Wire Removal

Wire Removal: fake puro.

Tutti abbiamo visto eroi e personaggi volare e fare acrobazie con doppie rotazioni mortali. Oppure abbiamo visto un personaggio volare via dopo una enorme esplosione. Beh in quasi la totalità dei casi, questi attori sono collegati a dei fili i quali come delle marionette li portano in giro e verranno eliminati più tardi in post produzione ( wire removal ).

wire removal

Wire Removal

Wire Removal e Background.

Il processo di wire removal è come sempre eseguito dal compositore, il quale il andrà ad analizzare tutta la scena ed utilizzando le tecniche che abbiamo già visto ( morphing, warping, tracking e soprattutto rotoscoping ) andrà a rimuovere i wires ( fili ). Se si tratta di una ripresa su bluescreen la cosa è molto più semplice ma nel caso di uno sfondo live, la cosa diventa molto più difficile poichè bisognerà ricostruire frame per frame la parte di sfondo nascosta dal nostro filo. Inoltre si considera wire removal anche la rimozione di ulteriori prop aggiungi al personaggio in scena.

Nel prossimo articolo vederemo: Salvataggio di uno shot VFX

 

Twitter | Instagram | Bitbucket | Battlelog | LinkedIn | GitHub

Google Profile


My name is Giovanni Di Grezia, but people call me xgiovio.

Here is my homepage: .

I am a VFX Artist and Software Developer

And this is a picture of me.

Giovanni Di Grezia