introducción al video digital

43
1 INTRODUCCIÓN AL VIDEO DIGITAL Por: Clicerio Muñoz Pavón Digital Producciones [email protected] @ClicerioMP Febrero 2013 Versión 2.0

Upload: clicerio-munoz

Post on 21-Jul-2016

227 views

Category:

Documents


9 download

DESCRIPTION

Manual para facilitar al estudiante tomar el curso que imparte @ClicerioMP sobre Video Digital.

TRANSCRIPT

Page 1: Introducción al Video Digital

 

  1  

INTRODUCCIÓN AL VIDEO DIGITAL

Por: Clicerio Muñoz Pavón Digital Producciones [email protected] @ClicerioMP Febrero 2013 Versión 2.0

Page 2: Introducción al Video Digital

 

  2  

INTRODUCCIÓN AL VIDEO DIGITAL

“Todos nosotros sabemos algo. Todos nosotros ignoramos algo. Por eso, aprendemos siempre”

Paulo Fraire

1. PRINCIPIOS BÁSICOS DEL VIDEO (Características técnicas, composición de la señal de video, sistemas, formatos)

LA TELEVISIÓN surge primero que el video.

EL VIDEO surge cuando se presenta la posibilidad de GRABAR la televisión.

DEFINICIÓN DE VIDEO:

Tecnología de grabación, captura, procesamiento, almacenamiento, transmisión y reconstrucción electrónica y/o digital de una secuencia de imágenes fijas que conforman una escena o imagen con movimiento.

Un cuadro o imagen fija de video se forma de líneas de barrido o exploración, o de pixeles.

Page 3: Introducción al Video Digital

 

  3  

- Frecuencia 15750 (B&W) o 15734 (Color) hertz o ciclos por segundo

- Derecha-Izquierda-Regreso

Han existido distintos estándares o sistemas de tv y video. Los más sobresalientes (analógicos) son:

NTSC: resolucion 525 líneas, 30 fps, PAL: resolución 625 líneas, 25 fps

Page 4: Introducción al Video Digital

 

  4  

Nuevos estándares digitales

El conflicto de campos

1) La primera línea de arriba es 1, la última 625 o 525. El primer campo ¨dibujado¨es el NON (Odd, Field 1, Upper Field, Top), o sea corresponderá a las lineas ¨nones¨ (la 1,3,5, etc.)

2) El segundo campo es PAR (Even, Field 2, Lower Field, Bottom) y corresponde a las líneas ¨pares¨¨ (la 2,4,6, etc.)

 

Page 5: Introducción al Video Digital

 

  5  

La señal video tiene de 3 elementos:

- Luz (Luminancia) (Pedestal, Set Up, Nivel de Negros, Contraste; Brillo)

- Color (Crominancia) (Phase=Tinte, Saturación)

Ø Teoría del color: RGB, modelo aditivo: (Modelos de color= forma de representar los colores en números o valores, 3 o 4 por ejemplo) (CMYK)

- Sincronismos (Sincronía) y Referencias

Ø Se relacionan con hertz, frecuencias, electricidad, voltaje.

Ø Son continuos. Hay verticales y horizontales

Ø Su continuidad genera estabilidad, y su estabilidad continuidad.

Ø Entre ellos se puede colocar información (Closecaption, TIME CODE)

Ø Time Code: SMPTE (Linear Time Code, Vertical Time Code)

Page 6: Introducción al Video Digital

 

  6  

Ø CTL Control track: se puede resetear constantemente, incluso de forma automática

Formas de transmitir la señal ANALÓGICAMENTE

- RF

- Compuesto

- S-Video

- Componentes

1.1 Del Video Analógico al Video Digital

- Proceso electromagnético vs Digital: puntos de luz en una capa fotosensible, se cambian por pixeles (datos, información)

- El mundo de los pixeles

Ø Pixel=elemento de imágen (Definición sensible al contexto: resolución en cámara, ppi en impresión, etc.

Ø Es una parte, o muestra de una imagen.

Ø Comúnmente se visualizan en un espacio bidimensional (retícula, grid)

o Una imagen compuesta de pixeles se conoce como Mapa de bits o imagen rasterizada (raster image)

Ø Los pixeles pueden tener distinta cantidad de bits y profundidad de color

1 bpp, 21 = 2 colors (monochrome) 2 bpp, 22 = 4 colors

Page 7: Introducción al Video Digital

 

  7  

3 bpp, 23 = 8 colors 8 bpp, 28 = 256 colors 16 bpp, 216 = 65,536 colors ("Highcolor" ) 24 bpp, 224 ≈ 16.8 million colors ("Truecolor")

- Codificación de la imagen y el sonido: fundamental

- En el caso de la TV (incluso el video) cohabitan lo analógico con lo digital hasta recientemente

- No todo lo digital fue siempre mejor que lo analógico

2. CALIDAD DEL VIDEO: PARÁMETROS

2.1 Definición de la imagen

Va de acuerdo a la resolución. Se usa para separar las categorías existentes en TV y video:

- SD (SDTV).- Standar Definition (Desde el origen de la TV hasta la HDTV) Sus resoluciones más comunes son:

PAL, 625 líneas, 720 x 576 pixeles, 25 cuadros x seg.

NTSC, 525 líneas, 720 x 486 pixeles, 29.97 cuadros x seg.

Ø Se toman líneas ACTIVAS de video para distribuirlas en los pixeles

Ø Sistema PAL contiene 625 líneas (unas activas otras no) que se convierten en 703.2 pixeles horizontales

Ø Sistema NTSC contiene 525 líneas (unas activas y otras no) que se convierten en 706.2 pixeles horizontales

Page 8: Introducción al Video Digital

 

  8  

Ø SD en formatos analógicos: VHS, BETAMAX,

BETACAM, etc.

Ø SD en formatos DIGITALES: DIGITAL 8, DVCAM, BETACAM DIGITAL, DVCPRO

Tip: La imagen de un DVD PAL, por ejemplo, tiene una mejor resolución que una NTSC y el PAL suele ser más preciso a la hora de la codificación de imágenes de cine, POR EL NUMERO DE CUADROS

- EDTV.- Enhanced-definition television, extended-definition television, or EDTV es un término aplicado a cierto formato o equipos de TV Digital, que dan una calidad superior a SDTV), pero no tan detallada como HDTV. Es la SDTV pero en escaneo PROGRESIVO

Ejemplos: DVD, Videojuegos, etc. Conectados por COMPONENTES, HDMI, DVI y VGA

- HDTV.- High Definition Television

Page 9: Introducción al Video Digital

 

  9  

- 2K: El nombre deriva de la resolución horizontal, la cual es aproximadamente de 2.000 píxeles: 2, 048x1080

- 4K: Usado en Cine Digital: 4096 x 3112 pixeles

2.2 Resolución

- Pixeles x pixeles (o líneas por líneas)

Ø Resolución Vertical (la forman las líneas o barridos horizontales)

Ø Resolución Horizontal (formada por líneas verticales) es cantidad de líneas verticales de un sistema

Ø A mayores resoluciones más ancho de banda (capacidad de transmisión o conducción de información)

Ø Pese a las línes y pixeles horizontales constantes de los sistemas de TV (704 activos), las resoluciones verticales obtenidas eran y son menores: 320 pixels por scanline calidad VCR, 400 pixels ó 336 líneas para TV broadcast, y 720 pixels para fuentes DVD

Page 10: Introducción al Video Digital

 

  10  

- Las resoluciones más comunes actualmente, tanto en informática como en televisión:

SD HDTV (4 veces mejor)

Tip: 640 x 480 es una resolución de SD común todavía en video digital, además de las que siguen hacia abajo, como p ej.; 320x240

- Algunos formatos digitales de video http://worldwide-­‐studios.com/Worldwide_Studios/Resources_files/Digital%20Video%20Formats.pdf

Page 11: Introducción al Video Digital

 

  11  

2.3 Aspecto (Aspect Ratio)

- Describe las PROPORCIONES de ancho y alto de una imagen

- Se expresan con LA RELACIÓN DE ASPECTO entre ancho y alto (4:3, 3:2, 16:9)

- Se expresa también como un factor que se obtiene dividiendo lo ancho entre lo alto

- Algunos aspect ratios:

Ø 1.33:1 (4:3)

Formato estándar del cine mudo, luego la TV y luego el video. Se usa todavía tanto en PRODUCCION de cine (16 mm y Super 35mm) como en los demás medios.

Ø 1.85:1

Usado principalmente en proyección o entrega (deliver) cinematográfica. Es de 35 mm (Ver gráfica Super 35)

Ø 2:35:1

Usado en cine

Page 12: Introducción al Video Digital

 

  12  

- Los más importantes (además con las variantes i & p):

1920 x 1080 (Real HD)

1440 X 1080 (HDV JVC y Sony, HDCAM Sony, etc.)

1280 X 720 (HDV, etc.)

1280 X 1080 (DVCPRO HD)

960 X 720 (DVCPRO HD)

Page 13: Introducción al Video Digital

 

  13  

Conversión a lo digital (coexistencia)

El video analógico se convierte a Digital, se hace compatible paulatinamente (Ej. Megacable, caja)

Se acordó una resolución de 720 por 480, con aspecto 3:2 que se adapta a 4:3

720x486-720x480

4:3-3:2

1.33-1.5

Hay formatos digitales 720x486 como el D1

DV WIDESCREEN: 720x360 (NTSC) o 720x432 (PAL)

Frecuentemente se usa: 854 X480 (16:9 real)

Page 14: Introducción al Video Digital

 

  14  

2.4 Pixel Aspect Ratio (Influye en cómo se ven los AR, pero NO CONFUNDIRLOS entre sí)

En un monitor de televisión los pixeles son rectangulares; en uno de computadora son cuadrados.

Diferencias del PAR, afectan la forma en que se despliegan las imágenes.

Aplica a conversión de imágenes ANÁLOGAS a Digitales. Lo inverso no, porque ya no hay PIXELES.

Se presentan problemas al combinar gráficos de computadora (siempre PAR 1:1) con formatos distintos de video

Algunos softwares de video hacen conversión por default para VISUALIZAR e incluso procesar los resultados (AE, FCP por ejemplo) cuando se combinan PAR distintos.

Page 15: Introducción al Video Digital

 

  15  

• D1/DV NTSC (720x480) tiene casi siempre pixeles RECTANGULARES.

• Una imagen 720x480 realizada en software de gráficos, la interpretarán siempre otros softwares de video como AE (por sus dimensiones) con PAR rectangular, AUNQUE DE ORIGEN LA IMAGEN sea de PAR 1:1. Esto producirá posibles distorsiones en el resultado.

• El aspecto RECTANGULAR de los pixeles permanece y se OBSERVA siempre EN LA resolución HORIZONTAL de las imágenes.

Imagenes 720 x 480 con PAR 1:1 INTERPRETADAS por sus dimensiones como PAR rectangular, en una comp 720x486 de AE

Page 16: Introducción al Video Digital

 

  16  

Parece que la tendencia es que cuando todo sea digital y HD, esta diferencia ya no exista. NO OBSTANTE en la actualidad, incluso en HD, hay tales diferencias: 1920 x 1080 (Real HD) PAR 1.0

1440 X 1080 (HDV JVC y Sony, HDCAM Sony, etc.) PAR 1.33

1280 X 720 (HDV, etc.) PAR 1.0

1280 X 1080 (DVCPRO HD) PAR 1.5

960 X 720 (DVCPRO HD) PAR 1.33

NOTA: LOS FORMATOS COMO 1440 X 1080 (HD ANAMÓRFICO) usan menos bitrate porque requieren también MENOS pixeles para obtener una imagen ancha, la cual logran simplemente porque sus pixeles son RECTANGULARES.

http://longzijun.wordpress.com/2010/10/24/exporting-video-for-youtube-pixel-aspect-ratio-basics/

Page 17: Introducción al Video Digital

 

  17  

2.5.- MODELOS y Espacios de Color:

Ø Modelos de color = forma de representar los colores en números o valores, 3 o 4 por ejemplo. Algunos modelos son: CMYK, RGB, YUV, CIELAB, etc. Los modelos son los “genéricos”

Ø Los modelos pueden ser interpretados en referencia a un espacio determinado, o expresados en cierto contexto. Así surgen los ESPACIOS DE COLOR, que serían como “los de patente”

Ø Ejemplo:

Modelo: RGB (genera 256 intensidades de cada color)

Espacios distintos: Adobe RGB, sRGB etc.

Ø Los EC tienen ¨gamut¨ (gama), que es una huella

digital distintiva de cada EC, y se refiere CUÁNTOS colores pueden ser representados de forma precisa en una imagen, y las características de los mismos (más saturados, menos saturados, etc.)

Ø Los aspectos que definen la representación de colores son entonces dos: (1) Su nivel de finesa (precisión, expresado en PROFUNDIDAD DE

Page 18: Introducción al Video Digital

 

  18  

COLOR) y (2) su nivel de variedad o rango de colores o GAMUT.

Ø ¿Cuál es la razón de crear un sistema, modelo, espacio o ESQUEMA de color?

• Buscar mejor percepción del ojo humano (realismo), reducir demanda de ancho de banda sin demeritar calidad, etc

- Los más usados en TV y video:

Ø Yʹ′IQ (Estándar de TV Análoga, broadcasting)

Ø YUV, Yʹ′UV, YPbPr (Video por componentes analógico), YcbCr (Video digital y foto digital)

Ø (Y= Luminancia, luz en los procesos)

Ø El concenso técnico de estas definiciones se establece mediante parámetros o estándares regulados por organismos, por ejemplo CIE o Comisión Internacional de Iluminación (Commission internationale de l'éclairage) autoridad en luz, iluminación y espacios de color

- Ajustes de Chroma y Luminancia:

Ø HSB (hue, saturation, brightness)

Ø HSL (hue, sat, luminance)

Ø Phase (hue, tono)

Ø Black, highlights y lowlights; levels, setup

Ø Brillo, Contraste, Luminancia

Page 19: Introducción al Video Digital

 

  19  

2.6 Profundidad de color o de pixel

- Color depth o bip depth: Número de bits utilizados para representar el color de un pixel en un mapa de bits o un cuadro de video.

- Es uno de los aspectos del GAMUT de un espacio de color (la precisión o finura de los colores)

- Truecolor es el sistema de 8 bits usado en video, mayormente

Ø 8 bits para cada color RGB, es decir imágenes de 24 bits por pixel (Suficiente para cubrir los colores del mundo real)

Ø 28=256 niveles por cada color

Ø (256x256x256)= 16.7 millones de colores

- 10 bits, profundidad de color de más calidad

Ø 10 bits x 3=30 bits

Ø 210=1024 niveles por cada color

Ø 1.073 billones de colores

Ø Algunos sistemas usan los 2 bits adicionales para lograr más rango dinámico e intensidad

- Hay procesos de imágenes y sistemas de color de más de 10 bits

Ø HDMI 36 y 48 bits

Ø Quatron: 32 bits (RGB + Subpixel amarillo) (Sharp)

Ø AE 16 bpc y 32 bpc

Page 20: Introducción al Video Digital

 

  20  

A mayor profundidad de color mejor resistencia a procesos de la señal (generaciones, post, efectos) pero más demanda de

espacio, ancho de banda, etc., es decir más costo.

Por tanto se buscó una forma de REDUCIR o comprimir el número de bits por pixel destinados al color, sin alterar

notoriamente la apariencia de la imagen.

2.7 Sub-Sampleo ó sampleo de color (muestreo=sampleo)

- Es la práctica de codificar imágenes, restando información o resolución al color

- El ojo humano es más sensible a las variaciones de luminancia o brillo que a las de color. Se sacrifica el color, con respecto del luma

- Los parámetros tomados para hacer el sampleo son 3 ó 4 grupos de 2 bits, cada grupo corresponde un elemento del modelo o espacio de color y éste a su vez a un dígito P. ej.: 4:4:4

- A menor sampleo, más calidad. Se nota en los pixeles adyacentes, es decir cuando se juntan dos colores

- El uso de uno u otro esquema de sampleo, depende de fabricantes, productos, aplicaciones, etc.

- 4:4:4

Ø No hay compresión del color

Ø Se usa en RGB y puede usarse en YcbCr (Video digital y foto digital)

Ø Hay cámaras High End (Sony HDC-F950, Digital 4:4:4 HD Camera System, por ejemplo) broadcast y de Cinematografía Digital, que pueden sacar o

Page 21: Introducción al Video Digital

 

  21  

generar estas señales, y equipos que pueden procesarlas (tarjetas, software, arreglos de discos duros, etc.)

Ø Para su transmisión se requiere cable SDI, con capacidades de 1.485 Gbit/s. a 2.970 Gbit/s. En ciertas configuraciones se puede usar fibra óptica.

- 4:2:2

Ø Se comprime el color a la mitad

Ø Se usa en AVC-Intra 100, Digital Betacam, DVCPRO50 and DVCPRO HD, Digital-S, CCIR 601 / Serial Digital Interface / D1, ProRes (HQ, 422, LT, and Proxy), XDCAM HD422

- 4:1:1

Ø Se comprime el color a un cuarto,

Ø En un inicio no se consideró calidad broadcast, posteriormente si

Ø Lo usan CPRO (NTSC y PAL), NTSC DV y DVCAM, D7

- 4:2:0

Ø Sistema complejo, comprime no sólo horizontal sino verticalmente.

Ø Todos los ISO/IEC MPEG y ITU-T VCEG H.26x estándares de codificación, incluyendo algunas implementaciones de H.262/MPEG-2 Part 2 en DVD

Ø PAL DV y DVCAM, HDV

Ø AVCHD y AVC-Intra 50

Page 22: Introducción al Video Digital

 

  22  

Ø Apple Intermediate Codec

Ø Los más comunes JPEG/JFIF y MJPEG, entre otros

2.8 Video Codecs

- Codec=código

- Un codec de video es un programa de cómputo que, con base en un conjunto de ¨reglas¨o combinaciones de datos, codifica (arma, organiza, escribe) y decodifica (el proceso inverso, reproducir, leer) información, ya sea de audio, video u otra clase.

- Un mismo codec puede ser usado por distintos fabricantes, equipos o formatos de video.

- El propósito de un codec es enfatizar una característica de los datos que codifica. P. ej:

Page 23: Introducción al Video Digital

 

  23  

Ø Que la información tenga menos peso

Ø Que se procese más rápido, y se reproduzca de inmediato

Ø Que el color (video) se vea mejor, aunque el movimiento de la acción tenga ¨deficiencias ¨

Ø Que el sonido sea de muy buena calidad

Ø Que la información pueda ser accesada por un número restringido de personas

- Algunos codecs pueden ¨leer¨ información codificada por otros (por ejemplo, si usan el mismo estándar)

- Ejemplos:

Ø FFv1, MPEG1, 2 y 4; H264, AVC, WMV, Sorenson, Real Video, Cinepak, Indeo, Apple Pro Res 422, Animation, Xiph Theora, etc.

2.9 Formatos Contenedores

- Es un archivo que contiene otros archivos (datos) de acuerdo a sus especificaciones propias, y define de qué manera estos datos existen en una computadora o dispositivo.

- Los formatos:

Ø Usan códigos (a veces propios, o compartidos), pero no describen en sí mismos cómo ha sido codificado o no un archivo (P. Ej.: un AVI puede abrirse en una PC, pero el mismo AVI puede no abrirse en otra máquina)

Ø Se conforman de partes distintas. A veces pueden ¨descomponerse¨o separarse dichas partes, e incluso alterarse (Extraer un DVD, por ejemplo)

Page 24: Introducción al Video Digital

 

  24  

Ø Hay contenedores exclusivos para audio, video, imágenes fijas, etc.

Ø Es común confundir los contenedores o formatos, con los codecs.

- Ejemplos:

Ø Audio: AIFF (AIF, usado en Mac OS), WAV, XMF (Extensible Music Format)

Ø Stills: FITS (Flexible Image Transport System) imágenes fijas, raw data;TIFF (Tagged Image File Format)

Ø Audio y video:

• 3GP (celulares)

• AVI (Standard Microsoft Windows container);

• Flash Video (FLV, F4V) (Adobe Systems);

• Matroska (MKV) (no limitado a codec o sistema, por lo que puede contener cualquier tipo de datos, casi. Es OPEN SOURCE)

• MJ2 (Motion JPEG 2000 file format, basado en formato ISO definido en MPEG-4 Part 12 y JPEG 2000 Part 12)

• . MOV QuickTime File Format (standard de Apple Inc.)

• MPEG program stream (standard para MPEG-1 y MPEG-2 usados en DVD y Video discos)

• MPEG-2 transport stream (a.k.a. MPEG-TS) (contenedor estándar para digital

Page 25: Introducción al Video Digital

 

  25  

broadcasting y transportación en medios; se usa también en Blu-ray Disc video; tipicamente contiene multiples streams de video, audio, y otros como guías de programación, subs, etc.)

• MP4 (standard audio video para MPEG-4)

• Ogg (standard container de Xiph.org audio fomat Vorbis y video formato Theora)

• RM (RealMedia; standard para RealVideo and RealAudio)

Ø Otros:

• NUT, MXF, GXF, ratDVD, SVI, VOB y DivX Media Format, MOD

2.10 Tasa de Bits (Bit rate)

- La tasa de bits es la cantidad de datos que contiene una transmisión o señal de video. Entre menos compresión, más bits; y generalmente, entre más bits, más calidad.

- La tasa de bits variable (VBR) es un método para mejorar la calidad y reducir la cantidad de datos. En este caso, si una imagen requiere más bits (por ejemplo una escena colorida o de acción) los usa, y si no, no (una imagen fija, de un solo color, no detalle)

- La tasa de bits constante (CBR) se usa cuando el ancho de banda está predeterminado, por ejemplo en transmisiones en tiempo real y videoconferencias.

Page 26: Introducción al Video Digital

 

  26  

- La velocidad de una cinta o medio digital, tienen que ver con su capacidad para procesar o almacenar mas bits (o sea más calidad)

2.11 Métodos de compresión

- Interframe: hay un cuadro maestro, cada x número de cuadros. Si la información de este cuadro se repite en otros, no se duplica dicha información, sino que se toma del ¨I Frame¨. Este método es poco práctico para edición o postproducción, ya que demanda mucha memoria en el proceso.

- Intraframe: cada frame se comprime de forma independiente.

Las imágenes I, P y B son las que resultan de la compresión de la señal de vídeo en los estándares ITU-T o MPEG. Estas imágenes atienden a los siguientes tipos:

I: son las que se codifican por sí mismas.

P: son las predichas por extrapolación.

B: son las predichas por interpolación.

Las imágenes I pueden ser codificadas por el formato JPEG y otros.

Se utilizan para descodificar las otras imágenes que componen el video y pueden ser utilizadas como puntos de acceso aleatorio para empezar a descodificar los videos a partir de cualquier momento.

En general, la codificación de estas imágenes ocupa más espacio que las otras.

Las imágenes P son las imágenes predichas con referencia a una imagen que puede ser de tipo I o P anterior en el tiempo,

Page 27: Introducción al Video Digital

 

  27  

así que necesitan la decodificación de la imagen de referencia antes de poder ser descodificadas.

Las imágenes B son las imágenes predichas con referencia a dos imágenes que pueden ser de tipo I o P, una anterior y una posterior, así que necesitan la decodificación de las dos imágenes de referencia así como la reordenación de las imágenes para poder ser descodificadas.

2.12 Relación Señal a Ruido

- Es un término para definir la relación entre el máximo poder de una señal y el poder de corrupción de la misma que afectan su fidelidad. Es decir: ruido en la imagen

- Entre mayor es el número hay más calidad. Se mide en decibeles

- Por ejemplo:

SNR:32.04 dB = excellent image quality

SNR:20 dB = acceptable image quality.

http://www.cambridgeincolour.com/tutorials/camera-sensors.htm

2.13 Sensibilidad a la luz y Procesamiento de imagen

En el mundo analógico, la sensibilidad de una cámara se consideraba de 2 diferentes maneras:

FOTOGRÁFICA.- Foto y Cine. Sensibilidad, dada actualmente en valores ISO, y determinada por el tamaño de los haluros de plata (granos) en una película. Granos más grandes=mayor

Page 28: Introducción al Video Digital

 

  28  

sensibilidad=valores ISO mayores=más grano= más ruido en la imagen.

ELECTRÓNICA.- Cámaras de TV, dada por el procesamiento de la imagen y los dispositivos de registro de la misma, como tubos de rayos catódicos, que evolucionaron después a CCD’s y luego CMOS, dando cámaras de mayor calidad y menor tamaño, entre otras características.

En el mundo digital, los sensores tienen una sensibilidad dada equivalente o proporcional a los valores ISO. Al aumentar estos valores, o la GANANCIA de un sensor con el objeto de “dar mas luz” a la imagen, el RUIDO se incrementa.

Este ruido se aprecia de varias maneras, tanto en el nivel de exposición como en los colores. O sea hay ruido de luminancia, y ruido de crominancia.

A mayor calidad de los sensores, y mayor calidad del procesamiento de la señal digital dentro de la cámara, menor ruido presente.

Cómo se genera la información y el ruido, CÓMO SE GENERA LA IMAGEN?

Una cámara digital usa sensores conformados por millones de diminutos pixeles para producir una imagen final.

Cada pixel tiene un “photosite” que al momento de la exposición se destapa para juntar y almacenar fotones (partícula electromagnética, luz)

Después de la exposición la cámara determina cuántos fotones cayeron en cada cavidad, y los ordena en varios niveles de acuerdo a la profundidad de color o bit depth de cada uno.

Pero las cavidades son incapaces de “distinguir” los colores de los fotones . Para capturar las imágenes en color las cavidades

Page 29: Introducción al Video Digital

 

  29  

tienen que contar con un filtro colocado sobre cada una, que determina el color de partícula que recibirá.

Casi todas las cámaras pueden capturar en cada cavidad uno de los 3 colores primarios, descartando, por lo tanto, 2/3 de la información de color.

El arreglo de filtros consiste en filas de éstos de distintos colores, principalmente verdes, ya que los humanos somos más sensibles a este color.

EL RUIDO es equivalente al GRANO en fotografía tradicional.

- Se produce por condiciones de iluminación y tiene que ver con la sensibilidad de las cámaras. Se aumenta por temperatura, tiempo de exposición, y varía según equipos

- Como dijimos, a números mayores de DB, menos ruido:

SNR:32.04 dB = excellent image quality

SNR:20 dB = acceptable image quality

El ruido está presente en todo dispositivo electrónico que transmita o reciba señales.

Hay diferentes tipos de ruido, producidos por situaciones específicas.

Page 30: Introducción al Video Digital

 

  30  

Aleatorio (cambiante)

Caracterizado por flutuaciones de intensidad y color. Siempre está presente. Aparece principalmente por la velocidad de exposición.

Resulta dificil removerlo sin degradar la imagen, entra en conflicto con muchas texturas (tierra)

Patrón Fijo

Incluye los llamados “hot pixels” que tienen más intensidad que el promedio.

Ocurre en largas exposiciones y empeora con calor extremo. En mismas condiciones es igual siempre.

Es más facilmente removible, incluso las mismas cámaras lo hacen, sien ambargo cuando se ve es muy notorio.

Page 31: Introducción al Video Digital

 

  31  

Banding

Depende de la cámara y se produce cuando ésta lee los datos del sensor.

Se observa más a velocidades muy altas, y en las sombras, en imágenes excesivamente brillantes.

Ciertos WB pueden incrementar este tipo de ruido.

2.14 Formatos de Videotape

- Analógicos

1" y 2” (AMPEX, SONY)

Betacam

Betacam SP

Betamax (Sony)

S-VHS (JVC) (1987)

U-matic (Sony)

VHS (JVC)

VHS-C (JVC)

8mm, Hi8

Page 32: Introducción al Video Digital

 

  32  

- Digitales (Introducidos a finales de los 80’s)

Betacam IMX (Sony)

D-Theater

D1 (Sony)

D2 (Sony)

D3 (NHK y PANASONIC)

D5 y D5 HD (Panasonic)

Digital-S D9 (JVC)

Digital Betacam (Sony)

Digital8 (Sony)

DV (bajó el costo del mundo digital, profesionalmente. Fire Wire, Surgen nuevos equipos y programas de edición)

Ø Intraframe, 480 scanlines y 720 pixeles p línea, 4:3 y 16:9 en el mismo frame (cambia el PAR) 4:1:1, Audio 16 bits 48 khz Stereo PCM (entre otros). Puede contenerse en AVI, QT y MXF. 25 mb/s video, 1.5 mb/s audio. ¼” (6.35 mm)

Ø Se graba en cintas MiniDV y Estándar. Carácterística unlocked audio (se puede desincronizar por milésimas, luego de varias generaciones)

VARIANTES DE DV (DV VS DVCAM)

Ø DVCAM: Locked Audio. 50% más rapidez de la cinta, menor duración que Mini DV y más precisión frame by frame en la edición. Relación con DV: 50% menos

Page 33: Introducción al Video Digital

 

  33  

dropouts, más estabilidad de audio y video. Hasta 4 canales de audio

Ø DVCPRO 25: 25 Mb/s, Locked audio, 4:1:1. 80% más rápida que DV.

Ø DVCPRO 50: 50 Mb/s, Locked audio, 4:2:2. 80% más rápida que DV “2 DV codecs trabajando en paralelo”

Ø DVCPRO p

Ø DVCPROHD: 100 Mb/s,

Ø HDV: JVC, SONY y CANON. 720p (1280x720 1.0) y 1080ip (1440x1080 1.33), Mpeg2, 4.2.0

24 p, 30p (29.97)

2.15 Medios de Grabación

- Grabación en cinta

Las cintas dan origen al VIDEO (videotape) En el mundo analógico la grabación era un proceso electromagnético en cintas. Luego surgen cintas que graban DATOS. Muchos formatos digitales se han grabado en cinta, hasta el momento.

Ø Si bien la cinta para grabación está siendo desplazada, la cinta para almacenaje de datos es muy conveniente, y sigue en desarrollo permanente, aplicándose a muchos mercados e industrias.

Ø http://www.spectrumdata.com.au/content.aspx?cid=345

Page 34: Introducción al Video Digital

 

  34  

- Grabación en Estado Sólido

Ø La tecnología de estado solido (a diferencia de un disco duro) no usa partes móviles (cabezas, discos que giran, etc.) sino CHIPS

Ø Un ejemplo de memoria de estado solido es el RAM de las computadoras (Acceso rápido, se borra facilmente, etc.)

Ø Las Unidades USB usan también este principio Ø Hay unidades de grabación con memoria de estado sólido

En las aplicaciones ENG y Consumer, la grabación de video y fotos en memoria de estado sólido es la tendencia mundial. Sistemas de memoria:

Ø P2 (Sistema de almacenamiento profesional de video de PANASONIC) DV, DVCPRO, HD, AVCHD, etc.

Ø SDHC CARD (Secure Digital High Capacity Card): § Cámaras JVC, PANA, SONY y CANON § Formatos o Codecs: XDCAM, Mpeg2, NXCAM, AVCHD,

Wrappers (Mov, Avi, etc.) Ø SxS (S by S) Sony and Sandisk Estándar:

§ Cámaras SONY, JVC § Formatos o Codecs: XDCAM, Wrappers, HD 4:4:4

10 bits. § CF (Compact Flash): § Cámaras CANON, SONY, NIKON § Formatos o Codecs: Mpeg2 4:2:2, HDV-DV

Sin embargo muchas cámaras siguen utilizando la cinta o el disco duro

Ø Sony HDW-F900R CineAlta 24P HDCAM ($80 mil dólares) (Cinta)

Page 35: Introducción al Video Digital

 

  35  

Ø Ikegami HDN-X10E EDITCAM HD CAMERA PKG w/AVID ($52 mil dólares) (HDD)

Ø Sony PDW-F800 XDCAM HD422 2/3" 3CCD Camera ($39 mil dólares) (LASER DISK PRO)

Ø Panasonic AJ-HDX900 Professional High Definition Camcorder DVCPRO HD ($26 mil dólares) (Cinta DVCPRO)

3. OTROS FACTORES RELACIONADOS A LA CALIDAD DEL VIDEO EN REGISTRO, PROCESAMIENTO Y REPRODUCCIÓN.

3.1 Óptica

Para muchos el elemento más importante del proceso fotográfico (escribir con la luz) es el lente u objetivo fotográfico.

El lente reúne o capta la luz, y la dirige a un mismo punto, donde esta se plasma o se “imprime” (película o sensor)

Hay muchos tipos de efectos físicos producidos por los lentes en la luz. Ésta es una onda electromagnética ( como los rayos x, las microondas o la radio)

Un objetivo fotográfico es un complejo sistema o conjunto de lentes; asimismo existen otros accesorios ópticos como lentillas y filtros. Los objetivos y sus accesorios producen estos efectos en la luz y en consecuencia en la imagen registrada:

Ø EXPOSICIÓN: Dejar pasar cierta cantidad de luz (apertura, velocidad) que sea suficiente para lograr la imagen o el efecto deseado.

Ø ENFOQUE: Generar en la cámara una imagen nítida de esta “luz” que proyectan los objetos.

Page 36: Introducción al Video Digital

 

  36  

La distancia focal o longitud focal es la distancia entre el centro óptico de una lente y el foco o punto focal (punto de enfoque)

Si el lente enfoca de cerca, su distancia focal es corta y se dice que es un lente poderoso. El poder de una lente es contrario a la distancia focal. El poder es “cuánto aumento” tiene o da la lente (lupa, por ejemplo). NO es lo mismo lente que objetivo, en fotografía.

Ø PROFUNDIDAD DE CAMPO (DOF): La zona donde un objeto está enfocado, donde es nítido, por delante y por detrás del mismo.

Depende de: distancia focal, número f (apertura) y distancia de enfoque, básicamente.

Ø DISTANCIA HIPERFOCAL: Es la distancia de enfoque en la que se consigue la mayor profundidad de campo, extendiéndose ésta desde la mitad de dicha distancia hasta el infinito. Enfocar en dicha distancia nos ayudará a obtener la máxima nitidez en nuestras fotos, por ejemplo, de paisajes.

Ø ÁNGULO DE VISIÓN: Normal, gran angular, telefoto. Zoom: combinación de atributos.

Ø EFECTOS VISUALES: Ojo de pescado, macro, polarizado, degradados, estrellas, suavizado, etc.

Page 37: Introducción al Video Digital

 

  37  

Ø NITIDEZ: Por ejemplo, de los colores, el enfoque de los mismos (Aberración cromática)

3.2 Resolución, nitidez y detalle

En fotografía análoga la mayor nitidez se ha logrado, entre otras cosas, con formatos medianos y grandes que registran más detalles de una escena.

Estos formatos se usaban y usan por profesionales para obtener mejores resultados en ciertas fotos, como paisajes, por ejemplo.

No es lo mismo entonces la calidad de una imagen tomada con un negativo de 4x5” o 6x6” que con uno de 35mm

35 mm

6x6”

Conclusión: a mayor área (tamaño) de registro de imagen, o sea mayor escaneo, mas “espacio” para los detalles, calidad y posibilidad de “crecer” el tamaño sin pérdida.

El film stock o película se ha sustituido por chips como los CCD’s y los CMOS, entre otros.

Page 38: Introducción al Video Digital

 

  38  

Un CCD es un CIRCUITO INTEGRADO llamado Dispositivo de Carga Acoplada (Charge-coupled device) o transductor de estado sólido:

Ø Sus inventores ganaron el Premio Nobel de Física.

Ø Un CCD registra la imagen y la convierte en una señal, que será procesada análoga o digitalmente dentro de la cámara.

Ø Tiene pequeñas celulas fotoeléctricas cuyo número o cantidad se expresa en pixeles. A mayor número de pixeles, mayor resolución o detalle de una imagen. Generalmente, a mayor tamaño del CCD más pixeles y por ende más calidad.

Ø Una cámara de video puede tener un sólo CCD ( o CMOS)

Ø Este se encargará de procesar los 3 colores del sistema RGB.

Ø Sin embargo, generalmente se ha logrado mayor calidad en cámaras con 3 Chips, uno para cada color.

Los CMOS, son dispositivos que compiten con los CCD’S… y van ganando la carrera.

En esencia hacen las mismas funciones, con las siguientes ventajas y desventajas básicas.

Ventajas de los CMOS:

* Consumo eléctrico muy inferior * Económico (necesita pocos componentes externos) * Lectura simultánea de mayor número de pixeles * El conversor digital puede estar integrado en el mismo chip * Escaso Blooming ("Smear") o inexistente

Page 39: Introducción al Video Digital

 

  39  

* Mayor flexibilidad en la lectura (Previsualización más rápida, vídeo) * Los pixeles pueden ser expuestos y leídos simultáneamente Desventajas

* Menor superficie receptora de la luz por píxel * Menor uniformidad de los píxeles (mayor ruido de patrón fijo-FPN)

Calidad de los Sensores

Tamaño (1/2, 1/3, ¼, 2/3 de pulgada) Más tamaño=Más calidad

Megapixeles: A mayor número, más calidad relativa

El Mito de los Megapixeles

Para impresiones normales 4x6" (10x15cm), incluso la resolución VGA (640 x 480 o 0.3MP) está bien. Esto lo hacen las cámaras digitales desde1991!

En 1999 cuando las cámaras eran de 1.2 o 2 MP, cada megapixel era reelevante si te dedicabas a hacer impresiones grandes.

Hoy en día, incluso las cámaras baratas tienen por lo menos 5 or 6 MP, suficiente para cualquier tamaño de impresión.

Cómo? Muy simple: cuando haces impresiones de 1 metro de ancho, por ejemplo, las tienes que ver desde lejos. Si se trata de un espectacular , hasta tendrías que alejarte unos 30 mts, y para esa distancia 6MP es suficiente.

Page 40: Introducción al Video Digital

 

  40  

El mito de los megapixeles se inició por los fabricantes de cámaras, y mordieron muy bien el anzuelo los ¨camera measurebators¨ (fanáticos de la medición)

Los fabricantes usan el número de megapixeles de una cámara para engancharte con la idea de que esto tiene mucho que ver con la calidad.

Uno necesita por lo menos el doble de resolución o formato de película para lograr mejoras notables. Esto equivaldría a cuadruplicar los megapixeles.

Una simple duplicación de megapixeles, dejando lo demás igual, es muy poco notoria en los resultados.

Los factores que importan, como el color y los algoritmos de nitidez, son por mucho más significantes.

El mito de los megapixeles también prevalece porque el hombre siempre quiere un número único por el cual algo puede ser medido como bueno.

En conclusión, el número de megapixeles (MP) de una cámara tiene muy poco que ver con el cómo se ve la imagen. Incluso, muchas cámaras de menos MP, pueden producir mejores imgágenes que otras con más MP.

3.4 Flujo de trabajo digital: de la captura a la entrega (básico)

CÁMARA-LEVANTAMIENTO-GRABACIÓN (Luz, balance, sensores, óptica)

Page 41: Introducción al Video Digital

 

  41  

Ø Procesa (sensores), graba (codecs, contenedores y medios) y/o envía-transmite señal (salidas y cableado)

Ø Transferencia/Transmisión (Cable o sin cable)

• Analógico (longitud, calidad cable, interferencias, etc):

§ RF § Comp § S-Video § Componentes

• Digital (Datos, velocidad):

§ Usb 2 § Usb 3/Firewire § Serial Digital (SDI) (1.485 Gbps)

§ HDSDI § HDMI (10.2 Mbps)

Ø Proceso en computadora u otros dispositivos (Mixer de video, HDD)

• Tarjetas procesadoras • Codecs (Nativos, no nativos) • Ram • Velocidad de Discos Duros • Tiempo es clave (más real=mayor costo)

Ø Señal a dispositivos • Cable (Analógico o Digital?) • Conexión a dispositivo (LEDS, Plasma, LCD,

Proyector) • Resolución, aspect ratio, etc.

Page 42: Introducción al Video Digital

 

  42  

Ø Delivery (entrega): procesamiento, codificación

• Medios

o BR o DVD o Containers

• Broadcast, Webcast, Cable, DTT, Satélite, Web, Fibra

Óptica

o Codificación o Decodificación o Resultado final

Page 43: Introducción al Video Digital

 

  43