evoluzione rendering

42
1968-2010

Upload: yuma-noise

Post on 07-Jul-2015

210 views

Category:

Education


1 download

DESCRIPTION

dal 1968-2010Testa Daniel Yuma

TRANSCRIPT

Page 1: Evoluzione rendering

1968-2010

Page 2: Evoluzione rendering

Il Rendering è un termine della lingua inglese che in senso ampio indica la resa grafica, ovvero un'operazione compiuta da un disegnatore per produrre una rappresentazione di qualità di un oggetto o di una architettura (progettata o rilevata). In tempi relativamente recenti ha assunto un valore essenzialmente riferito all'ambito della computer grafica; dove identifica il processo di "resa" ovvero di generazione di un'immagine a partire da una descrizione matematica di una scena tridimensionale interpretata da algoritmi che definiscono il colore di ogni punto dell'immagine. La descrizione è data in un linguaggio o in una struttura dati e deve contenere la geometria, il punto di vista, le informazioni sulle caratteristiche ottiche delle superfici visibili e sull'illuminazione.

Page 3: Evoluzione rendering

Quando l'elaborazione preliminare della scena (una rappresentazione wireframe solitamente) è completa, inizia la fase di rendering che aggiunge texture bitmap o textureprocedurali, luci, bump mapping, e posizioni relative agli altri oggetti.

Page 4: Evoluzione rendering

Il Ray casting non calcola la nuova direzione che un raggio di luce può subire dopo l'intersezione con una superficie nel suo cammino dall'occhio alla sorgente di luce. Questo elimina la possibilità di rendere con precisione riflessioni, rifrazioni, o il decadimento naturale delle ombre, ma tutti questi elementi possono essere aggiustati, da un uso creativo delle mappe di texture o altri metodi. Grazie all'elevata velocità di calcolo, il ray casting venne utilizzato nei primi giochi di video in tempo reale 3D. L'idea alla base ray casting è di sparare raggi dall'occhio, uno per ogni pixel, e di trovare l'oggetto più vicino che ostruisce il percorso di quel raggio (come una porta a vetro). Un importante vantaggio offerto dal ray è la sua capacità di gestire con facilità superfici non piane e solidi, come coni e sfere. Se una superficie matematica può essere attraversata da un raggio, può essere resa utilizzando raycasting.

Page 6: Evoluzione rendering

Scanline rendering è un algoritmo per la determinazione della superficie visibile, in computer grafica 3D, che funziona riga per riga, piuttosto che poligono per poligono o pixel per pixel. Tutti i poligoni che devono essere resi vengono analizzati in ordine di “y” ordinate, quindi ogni riga o linea di scansione dell'immagine è calcolata utilizzando l'intersezione di una linea di scansione con i poligoni sul fronte della lista delle ordinate, mentre l'elenco si disfa dei poligoni non più visibili.La particolarità di questo metodo è che non è necessario tradurre le coordinate di tutti i vertici dalla memoria principale nella memoria di lavoro, solo la definizione di spigoli che intersecano la linea di scansione attuale necessità di essere in memoria, e ogni vertice si legge solo una volta.

Page 7: Evoluzione rendering

http://www.youtube.com/watch?v=qdfVFWM3VFghttp://www.youtube.com/watch?v=ScTTktR-Gmo&feature=related

Page 8: Evoluzione rendering

ombreggiatura Gouraud, dal nome Henri Gouraud, è un metodo usato in computer grafica per simulare i diversi effetti di luce e colore attraverso la superficie di un oggetto. In pratica, l'ombreggiatura Gouraud viene utilizzato per realizzare l'illuminazione uniforme su superfici a basso poligono senza i requisiti pesante computazionale del calcolo di illuminazione per ogni pixel. Il principio alla base del metodo è il seguente: Una stima della superficie normale di ogni vertice in un modello 3D si trova facendo la media dei normali alla superficie dei poligoni che si incontrano ad ogni vertice. Usando queste stime, l'illuminazione calcoli sulla base del modello di riflessione di Phong vengono poi effettuate a produrre intensità di colore ai vertici. intensità di pixel dello schermo può essere interpolato bilinearly dal colore valori calcolati ai vertici. In un certo senso più semplice, un gradiente è formato nella zona in cui i vertici si incontrano.

Page 10: Evoluzione rendering

Una texture mapping viene applicata (mappato) alla superficie di una forma o un poligono. Questo processo è simile alla applicazione di carta modellata a una casella bianca. Multitexturing è l'uso di più di una texture alla volta su un poligono. Ad esempio, una texturemappa luce può essere utilizzata per accendere una superficie come alternativa al ricalcolo delle luci. Texture mapping non tiene conto delle informazioni approfondite sui vertici di un poligono, dove il poligono non è perpendicolare allo spettatore, il che produce un difetto evidente. La risoluzione di una texture map è di solito dato in termini di larghezza in pixel.

Page 12: Evoluzione rendering

In computer grafica, z-buffering è la gestione della profondità dell'immagine. Si tratta di una soluzione al problema di visibilità, che è il problema di decidere quali elementi di una scena renderizzata sono visibili, e quali nascosti. Z-buffering è noto anche come buffer di profondità. Quando un oggetto è reso da una scheda grafica 3D, la profondità di un pixel (z) è memorizzata in un buffer. Questo tampone viene generalmente organizzato in metodo bidimensionale (xy) con un elemento per ogni pixel dello schermo. Se un altro oggetto della scena deve essere reso in pixel, la scheda grafica confronta le due profondità e sceglie quella più vicina all'osservatore. Alla fine, lo z-buffer permetterà alla scheda grafica di riprodurre correttamente la consueta percezione di profondità. Questo si chiama z-abbattimento. La granularità di un z-buffer ha una grande influenza sulla qualità scena: un 16bit z-buffer può causare difetti (chiamato "z-fighting"), quando due oggetti sono molto vicini gli uni agli altri. A 24bit o 32bit z-buffer si comporta molto meglio, anche se il problema non può essere interamente eliminato senza algoritmi aggiuntivi. Un 8bit z-buffer non è quasi mai utilizzato per via della sua poca precisione.

Page 14: Evoluzione rendering

Phong shading si riferisce a un insieme di tecniche di computer grafica 3D. Essa include un modello per la riflessione della luce da superfici e un metodo compatibile di stima interpolando i pixel di colore normali della superficie attraverso poligoni rasterizzati. Il modello di riflessione può anche essere indicato Phong reflection model, Phong illuminationor Phong lighting. Il metodo di interpolazione può anche essere chiamato Phong interpolation, "illuminazione per-pixel". In genere si chiama "ombra", se confrontato con altri metodi di interpolazione come ombreggiatura Gouraudshading. Il modello di riflessione di Phong può essere utilizzato in combinazione con uno qualsiasi di questi metodi di interpolazione.

Page 16: Evoluzione rendering

In computer grafica, environment mapping, o reflection mapping, è una tecnica efficace di illuminazione basata su immagini per approssimare l'aspetto di una superficie, riflettente con una texture immagine precalcolate. La struttura viene utilizzata per memorizzare l'immagine dell'ambiente circostante lontano all'oggetto, diversi modi di conservare l'ambiente circostante sono impiegati. La prima tecnica è stata la spheremapping, in cui una singola texture contiene l'immagine dei dintorni che si riflette su una palla a specchio. E 'stato quasi completamente superata dalla cube mapping, in cui viene proiettato l'ambiente sulle sei facce di un cubo e memorizzato come sei texture quadrate. L'approccio dell’ environment mapping è più efficiente del ray tracing classico (calcolo del il riflesso esatto tracciando un raggio e seguendo il percorso ottico). Il colore riflesso utilizzato nel calcolo di un pixel è determinato calcolando il vettore di riflessione presso il punto sull'oggetto e nella mappa dell'ambiente. Environment mapping è in genere il metodo più veloce di rendering di una superficie riflettente. Per aumentare ulteriormente la velocità del rendering, il rendering può calcolare la posizione del raggio riflesso ad ogni vertice. Quindi, la posizione viene interpolato attraverso poligoni a cui il vertice è allegato. Questo elimina la necessità di ricalcolare direzione riflessione ogni pixel.

Page 18: Evoluzione rendering

Shadow volumes è una tecnica utilizzata in computer grafica 3D per aggiungere ombre ad una scena renderizzata. Questa tecnica divide il mondo virtuale in due: le zone in ombra e zone che non lo sono. La shadow volumes è stata resa popolare dal videogioco Doom 3, e una particolare variazione della tecnica utilizzata in questo gioco è diventata nota come Carmack Reverse. Volumi Shadow sono diventati uno strumento popolare per l'ombreggiamento in tempo reale. Il vantaggio principale di volumi ombra è che sono esatti a quelli del pixel, mentre la precisione di una mappa ombra dipende dalla memoria texture. Tuttavia, la tecnica shadow volumes richiede la creazione di geometria d’ombra.

Page 19: Evoluzione rendering

Il Bump Mapping è una tecnica di rendering dei materiali che aumenta la complessità degli oggetti realizzati senza effettivamente aumentare il numero di poligoni che compongono l'oggetto di partenza. Alla texture che ricopre l'oggetto viene "sovrapposta" una seconda texture (spesso in bianco e nero) che il motore di rendering utilizza per simulare asperità, solchi, sporgenze e così via. Tali dettagli non fanno parte della geometria dell'oggetto ma vengono aggiunti solo in fase di rendering, spesso basandosi sui valori di luminanza della texture in bianco e nero usata per generare l'effetto. A valori più alti (più "bianchi") corrisponde una sporgenza maggiore, così come le zone scure provocheranno una depressione. La differenza massima dal piano (che viene indicato da una gradazione al 50% di grigio) viene fissata con un parametro, e comunque non può essere molta rispetto alle dimensioni dell'oggetto per non causare distorsioni. A causa della sua capacità di aumentare il dettaglio degli oggetti, senza aumentare il numero di poligoni da renderizzare, il bump mapping viene ampiamente utilizzato nelle applicazioni dove è necessario renderizzare in tempo reale scene complesse e dettagliate (quindi soprattutto i videogiochi). Modifica di Bump mapping; IsosuperficieIl semplice Bump Mapping, utilizzato fino ad oggi, è stato ulteriormente migliorato grazie alla potenza sempre maggiore degli acceleratori grafici moderni, un esempio è il NormalMapping, che per generare l'effetto utilizza le normali (una normale ad un piano è la retta perpendicolare ad esso) alla superficie su cui l'effetto deve essere applicato. È una tecnica molto più precisa e realistica e i nuovi processori grafici la supportano appieno.

Displacement Mapping: Immagine bitmap in scala di grigi che il programma usa per applicare una rugosità all'oggetto, spostando fisicamente i vertici della mesh in corrispondenza dei pixel più chiari dell'immagine di partenza. E' una tecnica grafica diametralmente opposta a quella progredita dal bump mapping in poi (bump-normal-parallax) basata su giochi di luce atti a simulare geometrie inesistenti, in questo caso infatti si viene a creare, a seconda della texturedi riferimento, una microtessitura poligonale; un aumento reale delle geometrie.

Page 21: Evoluzione rendering

Binary space partitioning o Partizione binaria dello spazio (BSP) è un metodo ricorsivo per suddividere uno spazio in insiemi convessi di iperpiani. Questa suddivisione dà luogo ad una rappresentazione della scena per mezzo di una struttura dati nota come un albero BSP. Originariamente, questo approccio è stato proposto in computer grafica 3D per aumentare l'efficienza del rendering. Alcune altre applicazioni comprendono l'esecuzione di operazioni con forme geometriche (geometria solida costruttiva) in CAD, il rilevamento delle collisioni in robotica e giochi per computer in 3D e altre applicazioni informatiche che comportano la manipolazione di complesse scene spaziali.

Page 22: Evoluzione rendering

Il Ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici. Nel campo della Computer grafica 3D, le visualizzazioni modellate matematicamente delle scene vengono prodotte usando una tecnica che segue i raggi partendo dal punto di vista della telecamera piuttosto che dalle sorgenti di luce. Produce risultati simili al ray casting ed allo scanline rendering, ma semplifica alcuni effetti ottici avanzati, ad esempio un'accurata simulazione della riflessione e della rifrazione, restando abbastanza efficiente da permetterne l'uso in caso si voglia ottenere un risultato di alta qualità. Lavora tracciando, all'inverso, il percorso che potrebbe aver seguito un raggio di luce prima di colpire un'immaginaria lente. Mentre la scena viene attraversata seguendo il percorso di numerosi raggi, le informazioni sull'aspetto della scena vengono accumulate. La riflessione del raggio, la sua rifrazione o l'assorbimento sono calcolate nel momento in cui colpisce un qualsiasi oggetto. Le scene possono anche includere immagini e modelli creati attraverso varie tecnologie, per esempio usando la fotografia digitale. Seguendo i raggi in senso inverso, l'algoritmo viene alleggerito di molti gradi di magnitudine (matematica), il che rende possibile una precisa simulazione di tutte le possibili interazioni presenti nella scena. Questo è dovuto al fatto che la maggior parte dei raggi che parte da una sorgente non fornisce dati significativi all'occhio di un osservatore. Dopo aver calcolato un numero fisso di interazioni (già deciso in precedenza), l'intensità della luce nel punto di ultima intersezione viene calcolata con un insieme di algoritmi, inclusi il classico algoritmo di rendering ed altre tecniche (come la radiosity).

Page 24: Evoluzione rendering

In computer grafica, compositing alfa è il processo di combinare un'immagine con uno sfondo per creare l'aspetto della trasparenza parziale. Spesso è utile per il rendering degli elementi dell'immagine in passaggi separati, e poi unire la risultante di più immagini 2D in un'unica immagine finale in un processo chiamato di compositing. Per esempio, la composizione è ampiamente utilizzata quando si combinano computer resi elementi immagine con riprese dal vivo. Questo opaca contiene le informazioni di copertura, la forma della geometria in corso di elaborazione, che consentono di distinguere tra le parti dell'immagine in cui la geometria è stata effettivamente utilizzata e in altre parti dell'immagine che sono vuoti.

Page 25: Evoluzione rendering

La radiosity è un algoritmo di illuminazione globale usato durante il rendering in computer grafica 3D. È un'applicazione del metodo degli elementi finiti per risolvere l'equazione di rendering di scene composte di superfici perfettamente diffusive. La radiosità tiene conto solo dei percorsi che seguono la forma ad esempio, percorsi che partono da una sorgente e vengono riflessi diffusivamente un certo numero di volte (anche zero) prima di colpire l'occhio.

1985 Hemicube radiosity (Cohen, M.F., Greenberg, D.P. The hemi-cube: a radiosity solution for complex environments.)

Hemicube radiosity è uno dei modi per rappresentare una vista a 180° da una superficie o un punto nello spazio. l’Hemicube radiositydi solito è un cubo tagliato attraverso un piano parallelo a una delle sue facce. Pertanto, è costituito da una faccia quadrata e quattro rettangoli 02:01 proporzioni. Può essere utilizzato con l'algoritmo Radiosity Light o altri algoritmi di trasporto al fine di determinare la quantità di luce che arriva in un punto particolare su una superficie.

Page 27: Evoluzione rendering

Reyes rendering è un'architettura software di computer utilizzati in computer grafica 3D per il rendering di immagini foto-realistiche. È stato sviluppato a metà degli anni 1980 da Loren Carpenter e Robert L. Cook a Lucasfilm Computer Graphics Research Group, che è ora Pixar. E 'stata la prima volta nel 1982 per il rendering di immagini per la sequenza effetto Genesis nel film Star Trek II: L'ira di Khan. Pixar RenderMan fotorealistica è una implementazione dell'algoritmo Reyes. Secondo il documento originale che descrive l'algoritmo del sistema di immagine Reyes rendering è "un'architettura ... per un veloce rendering di alta qualità di immagini complesse." Reyes è stato proposto come un insieme di algoritmi e sistemi di elaborazione dati.

Page 28: Evoluzione rendering

L'architettura è stata progettata con una serie di obiettivi in mente:

• Complessità del modello / diversità: al fine di generare visivamente complessa e ricca utenti le immagini di un sistema di trasformazione devono essere liberi di modello di grandi numeri (100.000 s) di complesse strutture geometriche eventualmente generati utilizzando modelli procedurali come i frattali e sistemi di particelle.

• Complessità delle ombre: Gran parte della complessità visiva in una scena è generata dal modo in cui i raggi di luce interagiscono con le superfici oggetto solido. Generalmente, in computer grafica, questo è modellato utilizzando texture. Textures può essere colorato matrici di pixel, a descrivere gli spostamenti di superficie o la trasparenza o la riflettività della superficie. Reyesconsente agli utenti di incorporare shader procedurali con cui la struttura di superficie e l'interazione ottico è realizzato utilizzando programmi informatici di esecuzione degli algoritmi procedurali piuttosto che semplici tabelle look-up. Una buona parte dell'algoritmo è volta a ridurre al minimo il tempo speso dai processori recupero texture da archivi di dati.

• Minimal ray tracing: Nel momento in cui Reyes è stata proposta, i sistemi informatici erano significativamente meno capaci in termini di potenza di elaborazione e di archiviazione. Questo significava che il ray-tracing una scena foto-realistico avrebbe preso decine o centinaia di ore per fotogramma. Algoritmi come Reyes che non hanno in genere traccia del raggio eseguito molto più velocemente con risultati quasi foto-realistico.

• Velocità: Rendering di un film di due ore a 24 fotogrammi al secondo in un anno consente di 3minuti il tempo di rendering per ogni frame, in media.

• La qualità delle immagini: ogni immagine contiene indesiderati, artefatti algoritmo-correlata è considerato inaccettabile.

• Flessibilità: L'architettura deve essere abbastanza flessibile da incorporare nuove tecniche man mano che diventano disponibili, senza la necessità di una completa reimplementazionedell'algoritmo.

Page 29: Evoluzione rendering

Reyes raggiunge in modo efficiente diversi effetti che sono stati ritenuti necessari per il rendering di qualità cinematografica: Smooth, superfici curve, texture di superficie; motion blur e profondità di campo. Quindi, un sistema di ombreggiatura assegna un colore e l'opacità di ogni vertice di un micropoligono. La maggior parte dei renderer di Reyes permettono agli utenti di fornire illuminazione e le funzioni arbitrarie texturing scritto in un linguaggio di ombreggiatura. I micropoligoni sono trasformati in reti di grandi dimensioni che permettono velocità di calcolo per essere vettorializzati. Hider accumula in micro poligoni i colori di ogni pixel attraverso il tempo e la posizione dell'obiettivo usando un metodo Monte Carlo chiamato campionamento stocastico. La pipeline di base Reyes ha i seguenti passaggi:

• Bound: Calcolare il volume di delimitazione di ogni primitive geometriche.• Spalato: Split primitive di grandi dimensioni in più piccoli, primitive diceable.• Dice: Convertire il primitivo in una griglia di micropoligoni, ciascuno di circa la

dimensione di un pixel.• Shade. Calcolare l'illuminazione e l'ombreggiatura ad ogni vertice della griglia

micropoligoni.• Divisa la griglia in micropoligoni singoli, ciascuno dei quali è delimitato e

controllato per la visibilità.• Hide: Campioni dei micropoligoni, che producono l’immagine finale 2D.

Page 30: Evoluzione rendering

In questo disegno, il renderer deve memorizzare l'intero buffer frame in memoria in quanto l'immagine finale non può essere emesso fino a quando tutte le primitive sono stati elaborati. Una ottimizzazione della memoria comune introduce un passo chiamato bucket, prima delle fasi dadi. L'immagine in uscita è diviso in una griglia grossolana di "secchi", ogni genere di 16 x 16 pixel di dimensione. Gli oggetti sono quindi dividere grosso modo lungo i confini secchio e collocati in segmenti in base alla loro ubicazione. Ciascun segmento viene tagliato a dadini e trafilati individualmente, e i dati del segmento precedente vengono scartati prima che il segmento successivo venga elaborato.

Page 32: Evoluzione rendering

tone mapping è una tecnica utilizzata in elaborazione di immagini e computer grafica per mappare un set di colori ad un altro, spesso per approssimare l'aspetto delle immagini ad alta gamma dinamica in un mezzo che ha una gamma dinamica più limitata. In sostanza, mappatura dei toni affronta il problema della riduzione della forte contrasto rispetto ai valori scena (radianza) sul campo visualizzabili pur mantenendo i dettagli dell'immagine e l'aspetto del colore importante per apprezzare il contenuto originale scena.

Page 33: Evoluzione rendering

Subsurface scattering (or SSS) è un meccanismo di trasporto leggero in cui la luce penetra la superficie di un oggetto traslucido, interagendo con il materiale, ed esce dalla superficie in un punto diverso. La luce in genere penetrare la superficie e si rifletterà un certo numero di volte con angolazioni irregolari all'interno del materiale, prima di passare di nuovo dal materiale ad un angolo diverso, angolo che avrebbe se fosse stata riflessa direttamente dalla superficie. La dispersione del sottosuolo è importante in computer grafica 3D, per la resa realistica dei materiali come il marmo, la pelle, e il latte.

Page 35: Evoluzione rendering

I raggi dalla sorgente di luce e i raggi dalla fotocamera sono tracciati in modo indipendente, sono collegati solo in una seconda fase per produrre un valore di luminosità. E 'usato per simulare realisticamente l'interazione della luce con oggetti diversi. In particolare, è in grado di simulare la rifrazione della luce attraverso una sostanza trasparente come il vetro o l'acqua, interriflessioni diffusa tra gli oggetti di illuminazione, la dispersione nel sottosuolo della luce in materiali traslucidi, e alcuni degli effetti causati da particelle come il fumo o l'acqua vapore. Esso può essere esteso anche alle simulazioni più accurate di luce, come il rendering spettrale. A differenza di un percorso tracciato, il percorso bidirezionale di analisi e di Metropolis light transport, la mappatura fotone è un algoritmo "parziale" di rendering. Tuttavia, poiché si tratta di un metodo coerente, una corretta soluzione può essere raggiunto aumentando il numero di fotoni.

Page 37: Evoluzione rendering

Il Metropolis light transport (MLT) descrive l'applicazione di una variante del metodo Monte Carlo chiamato l'algoritmo di Metropolis-Hastings, l'equazione di rendering per le immagini di generazione, da dettagliate descrizioni fisiche di tre scene tridimensionali.La procedura costruisce percorsi da l'occhio ad una sorgente di luce usando un percorso bidirezionale, costruisce poi lievi modifiche al percorso. Questa procedura ha il vantaggio, rispetto al percorso tracciato bidirezionale, che una volta che un percorso è stato trovato dalla luce per gli occhi, l'algoritmo può quindi esplorare percorsi nelle vicinanze. In breve, l'algoritmo genera un percorso e memorizza il percorso di 'nodi' in una lista. E 'quindi possibile modificare il percorso con l'aggiunta di nodi in più e la creazione di un nuovo percorso della luce. Mentre la creazione di questo nuovo percorso, l'algoritmo decide il numero di nuovi 'nodi' da aggiungere e se tali nuovi nodi effettivamente creare un nuovo percorso. Metropolis Light Transport è un metodo imparziale che, in alcuni casi, converge ad una soluzione della equazione di rendering più veloce di altri algoritmi imparziale, il percorso tracciato e percorso bidirezionale traccia.

Page 39: Evoluzione rendering

Precomputed Radiance Transfer (PRT) è una tecnica di computer grafica usata per il rendering di una scena in tempo reale con le complesse interazioni precalcolate per risparmiare tempo. I metodi Radiositypossono essere utilizzati per determinare la luce diffusa della scena, tuttavia PRT propone un metodo per modificare dinamicamente l'ambiente di illuminazione. In sostanza, PRT calcola l'illuminazione di un punto come una combinazione lineare di irradianza incidente. Un metodo efficiente deve essere usato per codificare i dati, come ad esempio le Spherical harmonics. Quando Spherical harmonics è usato per approssimare la funzione di trasporto leggero, solo gli effetti a bassa frequenza possono essere gestiti con un numero ragionevole di parametri.

In matematica, le Spherical harmonics sono la porzione angolare di una serie di soluzioni per l'equazione di Laplace. Rappresentato in un sistema di coordinate sferiche, che forma un sistema ortogonale, introdotto da Pierre Simon de Laplace. In computer grafica 3D, le Spherical harmonics hanno un ruolo speciale in una grande varietà di argomenti, tra cui l'illuminazione indiretta (ambient occlusion, illuminazione globale, il trasferimento di radianza precalcolate, ecc) e nel riconoscimento di forme 3D.

Page 41: Evoluzione rendering

L'attuale stato dell'arte per la costruzione di scene in 3D per la creazione di film è il linguaggio di descrizione delle scene RenderMan creato dalla Pixar. (da confrontare con formati più semplici per la descrizione di un ambiente 3D come VRML o API come DirectX o OpenGL che sfruttano l'accelerazione hardware delle moderne schede grafiche). Altri popolari e potenti motori di render:

• Mental Ray• Vray• Brazil• Final Render• POV-Ray• Maxwell Render

Page 42: Evoluzione rendering

Storia ed analisi dei nuovi mediaa.a. 2010/’11

Nuove tecnologie dell’arte