View Conference 2012

L’evento 2012.

ViewConference è il più importante evento in Italia a cadenza annuale incentrato sulla grafica digitale, i videogames, l’automotive & industrial design, le tecniche interattive, il cinema digitale, l’animazione 3D e gli effetti visivi. Si terrà a Torino tra il 16 e il 19 Ottobre 2012.

view conference

Contest 2012.

Di seguito elencati i contest del 2012.

VIEW AWARD GAME – Concorso internazionale di videogiochi, completati tra il 2011 e il 2012 con scadenza il 15 Settembre 2012.

VIEW AWARD – Concorso internazionale di cortometraggi erealizzati usando tecniche 3D ed Effetti Visivi, completati tra il 2011 e il 2012, con scadenza il 15 Settembre 2012.

VIEW Social Contest – Concorso internazionale di film, corti, video musicali o pubblicità con animazioni 3D e/o con effetti speciali che affronta temi legati all’attualità e al sociale realizzati tra il 2011 e il 2012. Scadenza: 30 giugno 2012.

 

Per maggiori informazioni visitate il sito ufficiale http://viewconference.it/

 

Multipass Compositing

Compositing e Mondo Reale.

Il mondo reale è complesso. Fin dagli albori della CG, ingegneri e artisti hanno sempre collaborato per cercare di portare un alto grado di realismo sullo schermo. Dopo i primi film degli anni 70 – 80, si è giunto a una conclusione: la realtà è dannatamente difficile da simulare. Ci sono tanti fattori che concorrono nel rendere una immagine simile al reale: illuminazione, materiali, effetti particellari. Man mano che l’hardware dei computer progredisce, la tecnlogia migliora ma spesso, questo aumento di qualità, si manifesta come un ulteriore tempo di calcolo. Risoluzioni sempre più alte e particolari non lasciati al caso spingono i render per frame verso traguardi orari sempre più alti.

Un passo importante nell’ottimizzazione di tutti gli elementi di un un render in cgi è stato la scomposizione della scena in passaggi. Ogni singola luce ( o gruppo di luci ), materiale ed elemento viene separato dalla globalità della scena e renderizzata a parte per essere compositato in un secondo momento: questo processo dà origine al pass.

compositing

Compositing e Pass.

I pass sono vantaggiosi poichè permettono una flessibilità maggiore nelle variazioni di elementi. Una luce, su richiesta del cliente, può essere modificata senza renderizzare tutti gli altri elementi. Una sedia in un angolo troppo scuro può essere illuminata in compositing ( essendo isolata rispetto al resto ) o re-renderizzata in termini decisamente più bassi rispetto alla scena intera.

Nei prossimi articoli vedremo un workflow base di compositing multipass basato su 5 elementi base: pass di diffuse, ambient occlusion, specular, reflection e shadow. Le case di post produzione con target il cinema spesso lavorano con più di 20 pass a scena.

Nel prossimo articolo vedremo i pass di diffuse e specular.

 

Compressione

Compressione e Schemi.

Quasi tutti i differenti tipi di file offrono un qualche tipo di compressione. I dati compressi senza perdere qualità sono chiamati lossless e l’algoritmo che li comprime e li decomprire crea un file perfettamente identico all’originale. Altri algoritmi invece si identificano come lossy, una immagine cioè subisce una degradazione causata dal processo di discretizzazione dell’algoritmo stesso.

Compressione RLE e LZW.

Due schemi di compressione predominanti sono l’RLE e il LZW. L’RLE ( Run Lenght Encoding ) è il più usato nelle imagini in CGI; L’LZW ( Lempel-Ziv-Welch ) è altrettanto importante per la sua disponibilità in molti formati immagine. Siccome entrambi gli schemi di compressione sono lossyless, l’immagine risultante sarà identica all’originale e in più questi algoritmi di compressione possono essere usati assieme per ridurre ulteriormente la grandezza in byte del file. LZW viene principalmente usato nelle immagini fotografiche e rispetto al RLE fornisce una compressione minima.

Compressione JPEG e MPEG-2.

I due schemi lossy predominanti sono il JPEG e l’ MPEG-2. La compresisone JPEG è principalmente utilizzata nelle immagini fotografiche e il suo scopo è ridurre i dettagli nel sorgente riducendo drasticamente la grandezza in byte dell’immagine. La sua versabilità deriva dalla facilità di condivisione su sistemi a banda ridotta ( internet e dispositivi mobili ); la compressione permette comunque di avere una buona immagine con variazioni quasi invisibili all’occhio umano. Il JPEG è usato su immagini statiche e non su sequenze di immagini. Nei video infatti, il codec principale è l’MPEG-2; questo schema è molto simile al jpeg, l’algoritmo, dopo una iniziale compressione di alcuni fotogrammi in jpeg, calcola le variazioni nei frame successivi fino a un cambio di inquadratura o una eccessiva modifica dei pixel. Questo permette di salvare molta banda poichè sarà il processore a ricostruire l’immagine nei punti uguali ai fotogrammi precedenti. I frame interi vengono chiamati keyframes e una sequenza di fotogrammi (il primo intero più i successivi dipendenti) viene chiamata GOP ( Group of Pictures ).

compressione

Nel prossimo articolo vedremo il formato immagine rilasciato dell’ILM: OpenEXR

 

Bluescreen

Bluescreen e Set Extension.

Ci sono molte situazioni nelle quali è necessario piazzare un attore in una scena reale e questa può essere troppo dispendiosa, troppo pericolosa o persino impossibile da realizzare. In queste situazioni, vorresti filmare il tuo attore in un ambiente poco costoso e sicuro e più tardi compositarlo all’interno di uno sfondo costoso, pericolo e impossibile. Dovremo allora usare il bluescreen compositing. L’attore è filmato di fronte a uno sfondo completamente blu ( per tal motivo chiamato bluescreen ) per rendere le cose facili al computer, il quale dovrà isolare il nostro attore e scartare tutto il resto.

bluescreen

Estrarre il “matte” dal Bluescreen

Il bluescreen compositing offre sempre una serie di sfide nel mondo della CGI perchè il compositore deve prima isolare l’attore dal colore di background creando una maschera di alta qualità chiamata “matte”. Questa mashera è utilizzata per selezionare perfettaemnte il profilo degli oggetti e/o persone che vogliamo vadano sopra agli elementi creati in computer grafica. Il colore di background può essere anche verde e in questo caso è chiamato greenscreen invece di bluescreen ma il principo è lo stesso per entrambi i casi. Il computer determina il colore da bucare in ogni frame e genera una maschera che viene utilizzata per compositare l’attore sullo sfondo creato successivamente alla ripresa. E qui entrano in gioco tutte le qualità del compositore  perchè molto spesso gli oggetti ripresi sul bluescreen differiscono di molto dallo sfondo ricreato; è necessario infatti fare una attenta analisi, correzione colore e fusione per integrarli al meglio. Bello il bluescreen vero ?

Nel prossimo articolo vedremo: Tracking

 

Camera Tracking

Cos’è il camera Tracking ?

I registi e in generale tutti coloro che hanno in mano una videocamera odiano stare fermi. Adorano fare carrellate verso eserciti in movimento o girare attorno al personaggio principale. Tutto tranquillo se il risultato è solo una ripresa live, un po meno facile se invece bisogna integrare alcuni componenti fatti in CGI e quindi dover usare del camera tracking. Se la macchina da presa si muove, anche la camera in cgi dovrà fare lo stesso per far sì che sia in perfetta sincronia con la camera reale. Altrimenti si vedrebbero tutti gli elementi digitali scivolare sulla ripresa reale e non sembrerebbero quindi bloccati sulla scena. Ci sono speciali software che si occupano quindi di risolvere la scena reale creandone la sua copia in digitale ( almeno del percorso della macchina da presa ).

camera tracking

Gli step del Camera Tracking.

Il camera tracking consiste in due parti. All’inizio la ripresa reale è analizzata dal software di camera tracking. Il software cerca di trovare punti ( pixel ) comuni tra i frame adiacenti di una ripresa e il tracca ( li segue ) per tutta la durata della ripresa. Questo produce un modello 3d del terreno della scena e cosi anche le informazioni di movimento della macchina da presa e/o videocamera. Una volta costruiti e corretti i movimenti di camera digitale e creato dei props in bassa risoluzione rispecchianti la scena reale, il tutto viene dato in pasto al resto del team di cgi. Gli artisti 3d useranno le informazioni e i modelli a bassa risoluzione del camera tracking per orientarsi all’interno della scena e quindi posizionare eventuali oggetti tridimensionali. E’ importantissimo che i dati siano corretti altrimenti gli oggetti sarebbero in posizioni errate rispetto alla ripresa reale e in più potrebbero anche avere dimensioni e visioni prospettiche errate. Lo sbaglio di un matchmover nello sviluppo del camera tracking distrugge tutto il lavoro nel resto della catena alterando e rendendo inutile tutto il lavoro di posizionamento oggetti e render. Una volta renderizzati gli oggetti digitali il materiale arriva al compositore il quale prenderà la scena reale e gli elementi di camera tracking e ne farà un bellissimo output.

Nel prossio articolo vedremo : Bluescreen

 

Twitter | Instagram | Bitbucket | Battlelog | LinkedIn | GitHub

Google Profile


My name is Giovanni Di Grezia, but people call me xgiovio.

Here is my homepage: .

I am a VFX Artist and Software Developer

And this is a picture of me.

Giovanni Di Grezia