unidad mÓvil virtual para eng sobre hsupa

77
Universidad de Sevilla - Escuela Superior de Ingenieros Proyecto Fin de Carrera Ingeniero de Telecomunicación Unidad Móvil Virtual para ENG sobre HSUPA Autor: Antonio Foncubierta Rodríguez Director: José Ramón Cerquides Bueno Septiembre 2009

Upload: jose-ramon-cerquides-bueno

Post on 09-Feb-2016

121 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

Universidad de Sevilla - Escuela Superior de Ingenieros

Proyecto Fin de CarreraIngeniero de Telecomunicación

Unidad Móvil Virtual para ENGsobre HSUPA

Autor: Antonio Foncubierta RodríguezDirector: José Ramón Cerquides Bueno

Septiembre 2009

Page 2: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

Índice general

Índice general 1

1 Introducción 3

2 Producción de TV en Exteriores 52.1. Electronic Field Production . . . . . . . . . . . . . . . . . . . . . . . . 62.2. Electronic News Gathering . . . . . . . . . . . . . . . . . . . . . . . . . 72.3. Necesidades generales de un sistema de captación en tiempo real

en exteriores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Compresión de Video Digital 113.1. Características de Video Digital . . . . . . . . . . . . . . . . . . . . . . 113.2. Técnicas de Compresión . . . . . . . . . . . . . . . . . . . . . . . . . . 163.3. Estándares de Compresión . . . . . . . . . . . . . . . . . . . . . . . . . 21

4 Transmisión de datos sobre redes móviles 304.1. Redes Telefónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.2. Redes No Telefónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364.3. Tabla Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

5 Vídeo sobre IP 395.1. Modelo de un sistema de transmisión de vídeo sobre IP . . . . . . . 395.2. Vídeo sobre redes inalámbricas . . . . . . . . . . . . . . . . . . . . . . 415.3. Estandarización de IPTV e IPTV Móvil . . . . . . . . . . . . . . . . . . 52

6 Solución propuesta 536.1. Estructura detallada del sistema . . . . . . . . . . . . . . . . . . . . . . 536.2. Pruebas realizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

1

Page 3: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

Índice general 2

7 Resultados Obtenidos 587.1. Análisis del tráfico de paquetes . . . . . . . . . . . . . . . . . . . . . . 587.2. Introducción a las métricas de calidad para vídeo . . . . . . . . . . . 617.3. Análisis de calidad proporcionada por el sistema de unidad móvil

virtual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

8 Conclusiones 69

Bibliografía 73

Page 4: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

1Introducción

Mucho ha cambiado el panorama de la producción de televisión desde que

en España se realizara la primera demostración de televisión en los años cuaren-

ta. Si entonces la demostración consistía en una cámara conectada a un monitor

por un cable de treinta metros, ahora hay complejos sistemas de difusión de tele-

visión que cubren la totalidad del planeta; a la vez que los procesos de captura y

retransmisión de imágenes en tiempo real han mejorado asombrosamente.

No obstante, desde que se dispone de conexiones vía satélite ha habido poca

mejora en este aspecto, restringiéndose las mejoras a mejorar la calidad de la se-

ñal, utilizar distintos sistemas de codificación y compresión de señales digitales,

pero hay un hecho que apenas ha variado: cuando se necesitan retransmisiones

en directo desde el lugar donde se produce un hecho noticioso o que resulta in-

teresante retransmitir por televisión, el uso de un enlace por satélite es práctica-

mente forzoso salvo en casos en los que las condiciones permitan un radioenlace

de microondas más sencillo. Es por eso que la simple exploración de otras posibi-

lidades justificaría una investigación como la que se aborda en este proyecto fin

de carrera.

En este caso, la exploración de posibilidades va un paso más allá, y utiliza las

últimas tecnologías disponibles en redes de telefonía móvil para conseguir un sis-

tema de retransmisión de vídeo en tiempo real que disminuye los costes derivados

de un enlace por satélite. El sistema desarrollado se basa en el establecimiento de

una conversación punto a punto entre dos equipos conectados a una red de datos

basada en IP, en nuestro caso Internet. El objetivo de dicha conversación punto a

punto es transportar en tiempo real el contenido de un flujo de video cualquiera

3

Page 5: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 1. INTRODUCCIÓN 4

con definición estándar, apto para su posterior o inmediata inclusión en emisio-

nes de televisión. De este modo, el sistema es apto para realizar directos o contri-

buciones.

A lo largo de este proyecto, iremos ocupándonos de los distintos temas relacio-

nados con esta propuesta de sistema para la transmisión de vídeo. En el capítulo

2 se resumirán las necesidades de un sistema de producción de televisión en exte-

riores, explicando las soluciones actuales y los usos más frecuentes, mientras que

en el capítulo 3 nos ocuparemos de la compresión de vídeo digital. En el capítu-

lo 4 abordaremos los distintos sistemas de transmisión de datos en movilidad. El

capítulo analiza el estado del arte en el campo de transmisión de vídeo sobre IP a

través de redes de datos, relacionando así los dos capítulos anteriores. En el capí-

tulo 6 se entrará en detalles acerca de la estructura del sistema de pruebas imple-

mentado. En el capítulo 7 se verán las pruebas realizadas, desde las más simples

a las más complejas y los resultados obtenidos en las mismas desde el punto de

vista de la red y de la calidad percibida, dejando para el capítulo 8 las conclusiones

y las líneas futuras de investigación.

Page 6: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

2Producción de TV en

Exteriores

Un servicio tan extendido como la televisión, con vocación de servicio público,

y en contacto permanente con las últimas noticias, habrá de recurrir con frecuen-

cia a la retransmisión desde exteriores o a la contribución de imágenes obtenidas

fuera del plató. Si bien algunas cadenas de televisión cuentan con equipos nece-

sarios para realizar cierto número de conexiones al día, la mayor parte de este tipo

de trabajo es subcontratado a empresas que comercializan productos de transmi-

sión audiovisual e incluso realización de eventos. El motivo es que resulta muy

costoso mantener toda la infraestructura necesaria para realizar estas coberturas,

por lo que al contratar a una empresa especializada, estos costes disminuyen pa-

ra la televisión que contrata, a la vez que permite reutilizar el equipo para otros

clientes al comercializador del producto.

En la producción de televisión en exteriores se distinguen distintas soluciones

en función de las necesidades concretas del evento o noticia que hay que cubrir,

o del uso de las imágenes obtenidas (directo o contribución). Las dos soluciones

posibles reciben el nombre de Electronic News Gathering y Electronic Field Pro-

duction, aunque son más conocidas por sus siglas ENG y EFP. En las secciones

2.1 y 2.2 se describen sus principales características y necesidades, para posterior-

mente extraer conclusiones sobre los requisitos de ambas técnicas en la sección

2.3.

5

Page 7: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 6

Figura 2.1: Aspecto exterior de una unidad móvil para grandes eventos

2.1. Electronic Field Production

Electronic Field Production hace referencia a la producción de eventos en exte-

riores por parte de los medios audiovisuales. Esta técnica recurre al uso de grandes

unidades móviles, que sustituyen la mayoría de las funciones de un auténtico es-

tudio de televisión. El motivo es que existen determinados tipos de eventos, como

por ejemplo, retransmisiones deportivas, en los que no es posible trabajar con una

única fuente de vídeo en directo; esto implica que las decisiones sobre qué señal

de vídeo va a ser vista por los espectadores deben tomarse en la propia localiza-

ción, para transmitir una única señal de vídeo vía satélite, ya editada. Para ello son

necesarios multitud de recursos técnicos y humanos, lo que reserva su uso para

ocasiones en las que el uso de una unidad móvil completa es estrictamente nece-

sario. Las figuras 2.1 y 2.2 muestran una de estas unidades móviles.

Estas unidades pueden acoger a un elevado número de personas que se encar-

garán de las labores de realización a partir de las diversas fuentes de vídeo que se

reciben.En una de estas unidades caben alrededor de 15 personas (ver figura 2.2)

sin contar los operadores de cámara. No obstante, para completar su funcionali-

dad, es necesario retransmitir la señal editada al centro de producción de televi-

sión que se encargará de incorporar el contenido audiovisual a la programación.

Esto conlleva la contratación de un servicio de contribución vía satélite capaz de

Page 8: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 7

Figura 2.2: Esquema de organización interior de una Unidad Móvil

soportar un elevado flujo de bits. Si la unidad móvil no soporta la transmisión di-

recta vía satélite, esta función ha de ser contratada a una empresa especializada,

añadiendo así un nuevo vehículo equipado con una antena parabólica orientada

al satélite correspondiente.

2.2. Electronic News Gathering

Electronic News Gathering hace referencia a la recogida de noticias en exterio-

res, aunque el uso de los equipos ENG no se limita a la producción de informa-

tivos, sino también a otro tipo de programas de entretenimiento y actualidad. En

este caso, el objetivo es proporcionar información audiovisual obtenida fuera del

estudio de televisión: ya sea para su inclusión inmediata en la programación, caso

en el que hablaremos de la “realización de un directo”, o para su inclusión pos-

terior una vez editada la pieza, en cuyo caso hablaremos de “realización de una

contribución”. En ambos casos el equipo necesario es similar: un vehículo que

transporta a un operador de cámara, un periodista y quizás un técnico de soni-

do. Uno de estos vehículos, o unidad móvil ligera puede verse en la figura 2.3. En

este caso se trata de una unidad móvil con conectividad vía satélite. Este tipo de

unidades reciben el nombre de DSNG: Digital Satellite News Gathering.

El uso de las DSNG para contribución es muy sencillo: el reportero, junto con

el operador de cámara, obtienen las imágenes, que en algunos casos pueden ser

directamente editadas por el reportero si el equipo de la DSNG lo permite y pos-

teriormente las hacen llegar al centro de producción de televisión, donde serán

incluidas en la programación de acuerdo a las necesidades concretas de emisión.

La forma de hacer llegar la información puede ser vía satélite, a través de FTP o

Page 9: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 8

Figura 2.3: DSNG: Unidad Móvil Ligera para ENG con conectividad vía satélite

Figura 2.4: Uso de una DSNG para contribución en directo

transportando físicamente la grabación en algún soporte como pueden ser cintas

o DVDs.

El uso para la realización de directos, requiere la utilización de la antena para-

bólica del vehíchulo para transmitir en tiempo real la señal de vídeo. En este caso

surgen limitaciones a la labor del reportero: existe una conexión cableada o por

radioenlace entre el reportero y la DSNG por lo que su accesibilidad se ve redu-

Page 10: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 9

TR-2 ESTACION TERRENA TRANSPORTABLE (DSNG)

VEHICULO

TRANSMISION

VIDEO

FORMATOS

Antena ADVENT New Swift 1,2 m.1 Amplificador XICOM 400 W2 Codec/Mod. Vislink DVE4000 4:2:0/4:2:22 UP Converter WORK SCU-Ku2 Receptores IRD TT1260Transmision 2 ó4 Audios x víaEncriptación BISSBanda Ku y Banda Ku expandida

Mercedes VITO 115 156 CVAire acondicionadoGenerador ONAM 5,5 KW

ENTRADAS DE VIDEO4 IN SDI2 OUT SDI

Mesa de mezclas: 12 Canales - 4 Salidas4 IN analógicas2 OUT (bodega)

Intercom de 4 Hilos /2 CanalesHibrido telefónico GSM

MONITORADO VIDEORack de 3 monitores LCD de 5,6"Rack de 2 monitores Sony 9" SDIMonitor PGM externo para periodistaAUDIO1 Monitor AEQ de 6 Vías

Laptop Betacam SXLaptop DVC Pro

SERVICIOS Transmisión 1 ó 2 VíasUP LINKSegmento espacialMedios de directosEquipo ENG / EdiciónProducción - Coordinación

TRIAKONTA Producción de NoticiasGregorio de los Ríos, 3 - 45600 Talavera de la Reina TOLEDO - Tel.: 925 814 988 - www.triakonta.com

INFORMACION Y RESERVAS

TRIAKONTA PRODUCCIÓN DE NOTICIASTel./Fax: 925 814 988Móviles: 609 811 265 - 609 617 140Email: [email protected]

AUDIO

Figura 2.5: Características de un equipo DSNG

cida; además, la colocación del vehículo también es una limitación en si misma,

ya que existen zonas a las que le será difícil acceder y otras donde no se pueda

realizar una transmisión al satélite adecuado.

2.3. Necesidades generales de un sistema de captación en

tiempo real en exteriores

Una vez hemos visto las principales diferencias entre las unidades móviles pa-

ra ENG y EFP pasamos a comentar sus similitudes, que nos darán una idea de

cuáles son las limitaciones que el uso de ENG y EFP imponen a la captación au-

diovisual en exteriores.

En primer lugar tanto ENG como EFP necesitan disponer de un vehículo de

importantes dimensiones para desplazarse a la localización desde la que se pre-

tende retransmitir. En el caso de las DSNG, este vehículo puede reducirse al tama-

ño de una pequeña furgoneta que incluya todo el equipamiento necesario, aun-

que en el caso de producción en exteriores con unidades móviles completas, el

tamaño y número de vehículos necesarios aumenta de manera considerable. Este

hecho supone una importable limitación de movilidad, ya que las unidades mó-

Page 11: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 10

viles (completas o ligeras) tienen accesibilidad limitada, en el mejor de los casos,

a aquellos lugares donde sea posible desplazar una fugroneta. En segundo lugar,

la necesidad de conectividad vía satélite o un radioenlace de microondas si hay

visibilidad directa, limita aún más la accesibilidad de los periodistas, además de

añadir un nuevo problema en el caso de usar satélite: el coste de la transmisión es

muy elevado.

En definitiva, tanto los problemas de accesibilidad y movilidad como los re-

lativos al elevado coste de una transmisión por satélite redundan en el mayor re-

quisito de este tipo de sistemas de captación: planificación y previsión. Las limi-

taciones de movilidad conducen a tener previstos los desplazamientos con an-

terioridad para poder realizar la contribución, el tiempo de establecimiento del

enlace junto con las restricciones impuestas por los sistemas de satélite, así como

el elevado coste de una transmisión desaconseja su uso de forma indiscriminada,

produciendo que cualquier transmisión en directo esté prevista y planificada con

antelación suficiente.

En el caso de contribuciones en directo, el uso de unidades móviles ligeras

es la mejor opción disponible, pero dista mucho de proporcionar al medio la in-

mediatez necesaria para ciertos eventos imprevistos. Sería interesante, por tanto,

investigar la posibilidad de encontrar un sistema de contribución en tiempo real

que solvente las limitaciones de los sistemas actuales en la medida de lo posible.

El objetivo de este proyecto es utilizar técnicas de codificación de vídeo junto con

las últimas tecnologías de comunicación móvil para hacer posible la captación en

directo de forma inmediata, evitando desplazar grandes equipos.

Page 12: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

3Compresión de Video Digital

De todas las posibles fuentes de información, la que más cantidad de datos

aporta es el vídeo. Una fuente de vídeo de televisión convencional proporciona 25

imágenes por segundo, cada una de 576 líneas, según el sistema PAL utilizado en

Europa. Supongamos que el color de cada píxel1 es codificado con 24 bits, y que

la relación de aspecto es de 4:3. En este caso, tenemos una tasa bruta de bits de:

25 i mág enesseg undo ×576 l íneas

i mag en × 43 576 píxel es

l ínea ×24 bi t spíxel = 265420800 bi t s

seg undo ≈ 265Mbps,

lo cual hace inviable su almacenamiento o transmisión sin una compresión pre-

via. La compresión de vídeo puede interpretarse como la compresión de una se-

cuencia de imágenes. No obstante, las forma en que las personas percibimos las

imágenes en movimiento juega también un papel importante a la hora disminuir

la cantidad de bits requeridos por una señal de vídeo. Es por ello que para abor-

dar la compresión de vídeo debemos comenzar haciendo una breve introducción

a la representación de vídeo digital y a su percepción por parte del sistema visual

humano.

3.1. Características de Video Digital

Una señal de vídeo analógica puede modelarse como una sucesión de imáge-

nes con un ritmo adecuado para que sean percibidas como una imagen en movi-

miento, ya sea en niveles de gris o en color. Una señal digital incorpora, además,

1El concepto píxel no está definido en la televisión analógica, aunque sí en el estándar de te-levisión digital terrestre. En este caso, y sin pérdida de generalidad, usaremos el tamaño de imagenpropuesto por el estándar DVB-T

11

Page 13: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 12

una serie de conceptos propios de la cuantización de la información, como son la

resolución y el número de colores distintos que se pueden representar.

Tasa de Cuadro

Como ya hemos comentado previamente, la sensación producida por una se-

cuencia de imágenes a un ritmo adecuado es de movimiento contínuo. La tasa

mínima a la que han de sucederse las imágenes para que el ojo perciba continui-

dad ronda las 25 imágenes por segundo. En el caso del cine, se proyectan 24 fo-

togramas distintos por segundo; mientras que para la televisión se transmiten 25

imágenes distintas por segundo en el caso del sistema PAL y 30 en sistema NTSC.

A esta tasa se la conoce como tasa de cuadro, frames per second o simplemente

fps.

Tasa de Refresco. Entrelazado

En la definición de la tasa de cuadro hemos hablado de la cantidad de imáge-

nes distintas necesarias para la percepción de movimiento contínuo. El problema

surge cuando al representar imágenes a razón de 25 por segundo, se produce una

sensación desagradable de parpadeo conocida como Flicker, puesto que el sis-

tema visual humano intenta descomponer la señal de vídeo en cada una de las

imágenes estáticas que la forman. Para evitar esta sensación, se recurre a aumen-

tar la tasa de refresco de la imagen estática. El “truco” utilizado en el cine para

resolver el parpadeo es mostrar varias veces cada imagen, mostrando entre 48 y

96 fotogramas, de los que sólo 24 son distintos. Para la televisión, los primeros dis-

positivos no disponían de memoria suficiente para mostrar dos veces la misma

imagen, por lo que se recurrió a otro “truco”: se dividió cada imagen en una serie

de líneas, y se transmitieron de forma consecutiva todas las impares (campo im-

par) y posteriormente las pares (campo par), refrescando la pantalla 50 veces por

segundo, aunque cada línea sólo se refrescaba a 25 Hz (ver Figura 3.1). Aunque los

equipos actuales de televisión son capaces de almacenar una imagen completa

sin mayor problema, el concepto de entrelazado se mantiene hasta hoy y ha sido

incorporado a las nuevas tecnologías de televisión, como la televisión digital de

alta definición (HDTV).

Page 14: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 13

Figura 3.1: División de un cuadro en dos campos, [2]

Muestreo Espacial: Resolución

En el apartado anterior hemos visto que las imágenes estáticas mostradas por

televisión consisten en una serie de líneas. Sin embargo, no hemos dicho nada del

número de líneas necesarias ni de cuántos puntos han de tener estas líneas. En

el vídeo digital, las imágenes contienen un número finito de puntos, de manera

que si el espectador se sitúa a la distancia adecuada, no sea capaz de distinguir los

puntos y vea una imagen contínua.

Otro aspecto importante es la relación de aspecto de la imagen. Se han proba-

do multitud de formatos de pantalla de cine, televisión y monitores de ordenador,

aunque hay dos relaciones de aspecto que son más frecuentes que las demás: 4/3

y 16/9. En cualquier caso, y para definir el número de líneas o píxeles que ha de

tener un vídeo, lo que debemos considerar es que en cualquier formato de pan-

Page 15: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 14

talla, siempre es menor el alto que el ancho. Esto se debe a que la visión humana

también tiene esta característica, ya que tenemos un campo visual predominan-

temente horizontal. Por esto, el número de puntos necesarios en una imagen para

que a una distancia determinada el ojo no pueda distinguir los píxeles, vendrá de-

terminado por la resolución vertical, que es la más pequeña de las dos.

El cálculo del número de líneas necesarias es sencillo si conocemos la distan-

cia entre el espectador y la pantalla. En cualquier caso y sin entrar en mucha pro-

fundidad, el objetivo es que la separación angular entre dos píxeles (o líneas) con-

secutivas sea menor que el poder de resolución del ojo humano. Los formatos más

usados en la actualidad tienen resoluciones de:

720 por 486 píxeles (Sistema NTSC de definición estándar)

720 por 576 píxeles (Sistema PAL de definición estándar)

1280 por 720 píxeles (Alta Definición si el escaneo es progresivo)

1920 por 1080 píxeles (Alta Definición, con escaneo entrelazado o progresi-

vo)

Representación del Color

La evolución de la imagen en movimiento ha seguido el mismo camino que la

imagen estática: de la imagen en blanco y negro se pasó al color y de ahí a la era

digital. Sin embargo, aunque el destino haya sido el mismo (imagen o vídeo digital

en color) el trayecto seguido por el vídeo ha estado muy ligado a la evolución de

los sistemas de televisión, y los ajustes de compatibilidad con sistemas anteriores.

Para la representación de vídeo en color, es posible recurrir a las componen-

tes roja, verde y azul (RGB) de las imágenes, ya que la excitación de la retina con

distintas intensidades de luces roja, verde y azul proporciona al cerebro la sensa-

ción cromática de otro color (ver Figura 3.2). Sin embargo, varios motivos llevaron

a utilizar un sistema más complejo que la simple transmisión de tres imágenes

completas en rojo, verde y azul:

1. Los primeros intentos de transmisión de vídeo mediante señales electro-

magnéticas se basaban en la transmisión de imágenes en niveles de gris,

proporcionando la componente de luminancia (Y) de la imagen que se pre-

tendía mostrar. Esta componente se relaciona con las componentes RGB se-

gún la ecuación 3.1. La introducción de color debía garantizar la compatibi-

Page 16: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 15

Figura 3.2: Distintos niveles de detalle de una imagen en una pantalla LCD. Lacombinación de subpíxeles RGB produce percepción de colores distintos

lidad con los equipos antiguos, por lo que se optó por transmitir las imáge-

nes diferencias entre la luminancia y dos de las componentes de RGB, como

se puede ver en 3.2. De esta manera, se puede recuperar la información RGB

desde YCbCr.

Y = 0,2126R +0,7152G +0,0722B (3.1)

C b ∝ (B −Y );Cr ∝ (R −Y ) (3.2)

2. El sistema visual humano es mucho más sensible a la variación de luminan-

cia que a la variación cromática, por tener muchos más receptores del pri-

mer tipo que del segundo. Debido a esto, es posible una primera compresión

del vídeo transmitiendo menos información cromática que de luminancia.

Page 17: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 16

3.2. Técnicas de Compresión

La compresión de una señal implica eliminar en la medida de lo posible toda

la redundancia que ésta contiene, para evitar la transmisión o almacenamiento

de información que ya está presente de otra forma. Así, la tasa de bits de la señal

es reducida sin que haya pérdidas. Otra aproximación consiste en averiguar cuál

es la información que nos resulta útil de la señal, e intentar reducir la cantidad

de información no útil de la señal. En el caso de señales de vídeo, esto nos lleva

a intentar comprender cuáles son las características de las señales y a cómo las

percibimos. A continuación veremos algunas técnicas útiles para la compresión

de señales en general, y señales de vídeo en particular.

Percepción del Color. Submuestreo de Croma

Este es el primer tipo de compresión que hemos visto, ya que como hemos

explicado en la sección 3.1, la visión humana es mucho más sensible a los deta-

lles relativos a la luminancia que relativos a la crominancia. Esto ha dado lugar

a técnicas que tienen en cuenta este hecho no sólo a la hora de comprimir sino

a la hora de capturar vídeo. Distintos sistemas se han definido para la edición y

captura de vídeo, que hacen uso de distinto número de muestras de crominancia

respecto al número de muestras de luminancia. En el ámbito profesional, se cap-

tura y edita vídeo con los sistemas 4:4:4, 4:2:2, lo que significa que en el primer

caso, se tienen 4 muestras de cada una de las componentes de color por cada 4 de

luminancia; mientras que en el segundo caso sólo se usan 2 muestras de cada una

de las dos componentes de color por cada 4 muestras de luminancia. En la figura

3.3 se puede ver un ejemplo de la disposición de estas muestras.

Figura 3.3: Distintas Relaciones de Submuestreo de Croma

Page 18: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 17

Redundancia Espacial. Codificación basada en Transformación

La teoría de la información nos dice que un código óptimo es aquel que asigna

las palabras más pequeñas a los símbolos que son más probables y viceversa. La

figura 3.4 muestra una imagen y su histograma, donde se muestra que existe un

elevado número de píxeles con valores distintos, lo cual hace que la aplicación de

un código de Huffman resulte en una tasa de compresión pobre. Sin embargo, una

de las características de las imágenes y el vídeo en general es que existe una alta

probabilidad de que un píxel tenga un valor igual o similar al de su vecino. Para

aprovechar esta caracerística, podemos dividir la imagen en bloques, y asignarle a

cada uno de ellos el valor medio de dicho bloque en la imagen original (ver figura

3.5). A partir de esta imagen, calculamos la imagen diferencia, esto es el resutado

de restar las dos imágenes. Después de la correspondiente normalización, la ima-

gen y su histograma quedan como vemos en la Figura 3.6, donde podemos obser-

var que el histograma es mucho más compacto: existen unos pocos valores que se

repiten con mucha frecuencia y el resto de valores son poco o nada probables.

Figura 3.4: Imagen Original junto a su histograma

Figura 3.5: Imagen promediada por bloques

Page 19: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 18

Figura 3.6: Imagen Diferencia junto a su histograma

En este ejemplo hemos visto como una sencilla transformación de promedia-

do junto con la elección de un código óptimo nos sirve para disminuir la redun-

dancia presente en la imagen. A la hora de transmitir vídeo, la reducción de la

redundancia en cada una de las imágenes que forman la secuencia tendrá eviden-

temente resultados positivos en la tasa de bits de vídeo. Sin embargo, existen otras

transformaciones más efectivas a la hora de reducir la redundancia, éste es el caso

de la Transformada Coseno Discreta o DCT, una transformación que guarda rela-

ción con la transformada de Fourier, aunque usa cosenos como funciones base de

la tranformada. En la figura 3.7 podemos ver un conjunto de funciones base de

la transformada DCT bidimensional. En la figura 3.8 se puede ver el resultado de

aplicar la DCT la imagen de la figura 3.4 en bloques de tamaño fijo. En la figura 3.9

se muestra el histograma, que podemos observar que es mucho más compacto.

Figura 3.7: Conjunto de funciones base de la DCT bidimensional 8x8 [2]

Page 20: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 19

Figura 3.8: Resultado de aplicar la transformación DCT en bloques a la imagenoriginal.

Figura 3.9: Histograma de la imagen transformada

Page 21: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 20

Redundancia Temporal. Estimación del Movimiento

Hasta ahora hemos hablado de tipos de redundancia, o de posibilidades de

compresión que son comunes a todas las imágenes, fijas o en movimiento. A con-

tinuación hablaremos de un tipo específico de las señales de vídeo. De forma

análoga a la redundancia espacial presente en las imágenes, donde es muy pro-

bable que un píxel tenga un valor igual o cercano al de su vecino, en el vídeo se

produce redundancia temporal: la probabilidad de que un mismo píxel tenga el

mismo valor en dos cuadros consecutivos es muy alta. En la figura 3.10 podemos

observar dos fotogramas consecutivos de una secuencia de vídeo, mientras que

en la 3.2 se aprecian las ligeras diferencias entre ambos.

Figura 3.10: Entre dos fotogramas consecutivos en una secuencia de vídeo existemucha redundancia temporal

Figura 3.11: Imagen de diferencias entre los dos fotogramas de la figura 3.10

En el ejemplo de las figuras 3.10 y se comprueba la cantidad de redundancia

existente en un flujo de vídeo, pero aún se puede lograr una compresión mayor

Page 22: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 21

si en lugar de codificar las diferencias, se hace estimación de movimiento. Esta

idea pretende utilizar el hecho de que las diferencias entre fotogramas se deben

en general a que un objeto en la imagen se ha desplazado de un punto a otro. Si

en lugar de codificar las diferencias entre las dos imagenes se codifica la nueva

posición del objeto mediante un vector de desplazamiento, se ahorra todavía más

en términos de tasa de bits. Un ejemplo de estimación de movimiento podemos

verlo en la figura 3.12.

Figura 3.12: Uso de vectores de compensación de movimiento para codificar unasecuencia de vídeo

3.3. Estándares de Compresión

Ahora que conocemos algunas de las características de la imagen en movi-

miento y técnicas para aprovecharlas en términos de compresión, veremos breve-

mente algunos estándares de compresión y sus aportaciones, finalizando con el

estándar H.264/AVC.

MPEG-1

MPEG-1 es un estándar de compresión de audio y vídeo desarollado por el

Motion Pictures Expert Group con la intención de reproducir vídeo y audio en so-

portes digitales, por lo que el estándar MPEG-1 fue usado como base para los CDs

de vídeo (VCDs). La tasa soportada por los lectores de CDs es de aproximadamen-

te 1.5 Mbps, por lo que éste será el objetivo de compresión del estándar MPEG-1

para soporte CD.

MPEG-1 toma como base el estándar de compresión de imágenes JPEG, cuyas

ratios de compresión varían desde calidad browsing (100:1) a calidad indistingui-

Page 23: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 22

resolución horizontal máxima 768 muestrasresolución vertical máxima 576 líneastasa de imágenes máxima 30 cuadros/segundo

Tabla 3.1: Algunos de los parámetros restringidos de MPEG-1

Resolución FPS352x240p 29.97352x240p 23.976352x288p 25320x240p 29.97384x288p 25

Tabla 3.2: Resoluciones comunes en MPEG-1

ble del original (3:1). El uso de JPEG para imágenes en movimiento dió lugar a

un estándar conocido como motion JPEG o MJPEG. Sin embargo éste estándar no

aprovechaba la redundancia entre fotogramas para mejorar la compresión.

El desarrollo de MPEG-1 se hizo tratando de minimizar el coste de los deco-

dificadores, por lo que la contrapartida es que el tiempo de compresión de una

secuencia de vídeo en MPEG-1 es 100 veces mayor al tiempo de decodificación. Es

por esto que a la hora de edición o captura en tiempo real se hace una codificación

en MPEG-1 básica a una tasa de 4Mbps para fotogramas de 288 líneas, utilizando

sólo compresión intra-frame2. A tasas de 3-4 Mbps, MPEG-1 puede conseguir ca-

lidad broadcast, es decir, calidad necesaria para su posterior difusión. Sin embar-

go, secuencias con un alto índice de actividad espacio-temporal (como deportes)

suelen requerir tasas más altas, de entre 5 y 6 Mbps.

MPEG-1 utiliza un conjunto de parámetros restringidos, CPB (Constrained Pa-

rameters Bitsream), cuya intención es normalizar los tamaños de memoria, búfe-

res y anchos de banda necesarios para manejar el flujo de bits del estándar MPEG-

1. En las tablas 3.3 y 3.3 podemos ver algunas de estas limitaciones.

Otro aspecto importante de MPEG-1, y que fue uno de los que dio lugar al

desarrollo de MPEG-2 es que no soporta vídeo entrelazado, o mejor dicho, no lo

hace de una manera eficiente. Por ejemplo, pueden combinarse los dos campos

de un cuadro para su codificación y ser separados posteriormente a la hora de

2el término intra-frame hace referencia a que sólo se utiliza compresion JPEG en cada una delas imágenes, es decir sólo se consigue compresión por la redundancia presente dentro (de ahí elprefijo intra) del fotograma o cuadro

Page 24: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 23

decodificar el flujo de datos; sin embargo, esto da lugar a artefactos en la compen-

sación del movimiento. Otra opción consiste en separar los campos y codificarlos

de forma separada, lo que ofrece mejor calidad de imagen, pero reduce la relación

de compresión al desaprovechar la redundancia presente entre los dos campos.

Tipos de Cuadro. GOP

Existen cuatro tipos de cuadro codificados por MPEG-1. En función de la es-

tructura que siguen estos tipos de cuadro, se puede alcanzar una mejor respuesta

a movimientos bruscos en la imagen, o una mejor tasa de compresión. Esta es-

tructura recibe el nombre de Group of Pictures (GOP). A continuación se detallan

las características de cada uno de los tipos de cuadro de MPEG-1:

Figura 3.13: GOP. Orden de transmisión, reproducción y predicción

I: cuadros Intra Los cuadros intra, o tipo I, son codificados como una imagen in-

dependiente utilizando exclusivamente las técnicas de compresión intra-

frame referentes a reducir la redundancia espacial. Básicamente consisten

en imágenes JPEG. Permiten acceso rápido a distintos puntos de la secuen-

cia. Ocurren con una frecuencia de aproximadamente 2 cuadros por segun-

do, y también en cambios de escena. La tasa que aportan estos cuadros es

de aproximadamente 1 bit por píxel.

P: cuadros de Predicción Los cuadros tipo P son codificados en relación al cua-

dro P o I previo más cercano, resultando en un esquema de procesado hacia

delante como el que se observa en la figura 3.13. Proporcionan más compre-

sión que los I, dado que utilizan estimación de movimiento. Son utilizados

Page 25: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 24

como referencia para otros cuadros P o B. La tasa de compresión que apor-

tan los cuadros tipo P es de aproximadamente 0.1 bit por píxel.

B: cuadros de predicción Bidireccional Los cuadros B son codificados utilizando

los fotogramas anteriores y futuros más cercanos, ya sean P o I, resultando

en un esquema de procesado bidireccional, como se puede ver en la figura

3.13. Los fotogramas tipo B son los que más compresión aportan, alrededor

de 0.015 bits por píxel.

D: cuadros DC Los cuadros DC son codificados como imágenes independientes,

utilizando sólo la componente de contínua de la DCT. El uso de estos cua-

dros es muy limitado, y suele estar restringido a cuando el usuario utiliza la

función de avance rápido del reproductor.

MPEG-2

El estándar MPEG-2 surge para suplir algunas de las carencias de MPEG-1:

dar soporte al vídeo entrelazado, añadir un sistema de compresión de audio pa-

ra más de dos canales, abrir un abanico más amplio de parámetros para su uso

en diferentes ámbitos, resoluciones, y tasas de cuadro, proporcionando toda es-

ta versatilidad mediante Perfiles y Niveles. Su uso está muy extendido, tanto para

compresión de vídeo como de audio, siendo el famoso formato MP3 un caso par-

ticular de MPEG-2 para audio.

Versatilidad de MPEG-2

Como hemos comentado previamente, MPEG-2 proporciona una gran versa-

tilidad a la hora de la codificación de vídeo, a través de la definición de perfiles y

niveles. Esto lo convierte en un estándar adecuado para la transmisión de vídeo en

definición estándar para la televisión digital terrestre (DVB), transmisión de vídeo

en alta definición o almacenamiento de vídeo en soportes ópticos (DVD).

En la tabla 3.3 se muestran los perfiles definidos para MPEG-2, mientras que

en la tabla 3.3 se muestran algunas de las características de los distintos niveles

aplicables a cada uno de los perfiles.

Transport Stream y Program Stream

El estándar MPEG-2 abarca aspectos más amplios que MPEG-1 e introduce

cambios no sólo relativos a la codificación del vídeo sino al empaquetado y mul-

Page 26: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 25

Simple Main SNR Spatial HighTipo de cuadro I,P I,P,B I,P,B I,P,B I,P,BSubmuestreo Croma 4:2:0 4:2:0 4:2:0 4:2:0 4:2:0, 4:2:2Relación de aspecto (pí-xel)

1:1, 4:3,16:9

1:1, 4:3,16:9

1:1, 4:3,16:9

1:1, 4:3,16:9

1:1, 4:3,16:9

Escalabilidad(SNR/Espacial)

SNR Ambas Ambas

Tabla 3.3: Perfiles de MPEG-2

Low Main High-1440 HighPíxeles 352 720 1440 1920Líneas 288 576 1152 1152FPS 30 30 60 60Bitrate (Mbps) 4 15 60 80

Tabla 3.4: Restricciones a los parámetros de MPEG-2 según niveles

tiplexión de varios flujos de audio y vídeo. Una muestra de estos cambios son la

definición de dos sistemas de empaquetado: Transport Stream y Program Stream.

Estas dos formas de empaquetado son independientes de las características de co-

dificación, hasta tal punto que dentro de un Transport Stream pueden viajar datos

codificados con otros sistemas distintos de MPEG-2 para vídeo. Las figuras 3.14

3.15 muestran los esquemas de multiplexión y demultiplexión de estos contene-

dores.

Figura 3.14: Esquema de Empaquetado de Datos MPEG-2, según la normaISO/IEC 13818 [5]

Page 27: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 26

Figura 3.15: Esquema de demultiplexión de Datos MPEG-2, según la normaISO/IEC 13818 [5]

La definición de Transport Stream y Program Stream está muy relacionada con

la aplicación, ya que el Program Stream está diseñado para almacenamiento o

transmisión a través de canales con probabilidad de error muy baja, por ejem-

plo, es el flujo de datos usado para soportes ópticos como los DVD; mientras que

el Transport Stream tiene características que lo hacen más adecuado para trans-

misión por medios ruidosos o con una mayor probabilidad de error, por ejemplo,

para la transmisión de televisión digital (DVB). Ésta característica, junto con la po-

sibilidad de transportar cargas con distintos códecs hacen del Transport Stream de

MPEG-2 un buen candidato para encapsular paquetes para la aplicación de este

proyecto. Éste aspecto será discutido posteriormente en el capítulo 6.

H.264

A medida que el coste computacional se reduce, el soporte para vídeo codifi-

cado sobre distintas redes se ha diversificado, incrementando la necesidad de la

industria de mayor eficiencia y robustez para la codificación de vídeo en entornos

de red. Este es el objetivo del equipo conjunto para vídeo (JVT3) formado en 2001

por los grupos de expertos de la ITU-T (VCEG4) y de ISO/IEC (MPEG), dando lu-

gar al estándar MPEG-4/Advanced Video Coding que equivale a la recomendación

H.264 de la ITU. Este estándar/recomendación fue desarrollado para proporcio-

nar una mayor compresión de imágenes en movimiento para varias aplicaciones

como videoconferencias, almacenamiento digital, difusión de televisión o strea-

3Joint Video Team4Video Coding Experts Group

Page 28: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 27

ming a través de Internet.

H.264 introduce numerosas características a sistemas previos de codificación

de vídeo, entre las que destacan:

Codificación Entrópica . En los estándares MPEG-1 y MPEG-2, la codificación se

hace en base a tablas fijas de códigos de longitud variable (VLC). Estos es-

tándares definen una serie de palabras código basadas en la distribución de

probabilidad de vídeos genéricos en lugar del código de Huffman exacto pa-

ra el vídeo en cuestión. Sin embargo H.264 utiliza distintos VLCs en función

del contexto, implementados mediante los algoritmos CAVLC5 y CABAC6.

Slices. H.264 divide los cuadros en diferentes slices, de manera que puede ma-

nejar un fotograma de manera distinta en cada una de estas secciones. Así,

un mismo fotograma puede contener predicción bidireccional, predicción

hacia delante, hacia detrás, etc. Este concepto ya se había introducido con

MPEG-2, aunque H.264 amplía su funcionalidad.

Predicción con pesos. Mientras que los estándares previos utilizaban siempre los

mismos pesos para las predicciones bidireccionales, H.264 incorpora la po-

sibilidad de asignar mayor peso a una de las imágenes de referencia.

Listas de imágenes de referencia. H.264 crea dos listas de imágenes de referencia

para las predicciones, una a largo plazo y otra a corto plazo, de manera que

se optimiza la compresión basada en predicción.

Al igual que MPEG-2, el estándar MPEG-4/AVC proporciona multitud de he-

rramientas, opciones y parámetros, en una sintaxis compleja y difícil de imple-

mentar. Por ello, un número de subconjuntos de la sintaxis completa son estipu-

lados como Perfiles y Niveles. En la figura 3.16 se pueden observar algunas de las

restricciones de H.264 en términos de perfiles.

Calidad Ofrecida por H.264

El estándar H.264 proporciona una calidad de imagen muy superior a la de

MPEG-2 para un mismo bitrate, o dicho de otra forma, para una misma calidad, en

5Context-based Adaptive Variable Length Coding: Codificación de Longitud Variable Adaptadaal Contexto

6Context-based Adaptive Binary Arithmetic Coding: Codificación Aritmética Binaria Adaptadaal Contexto

Page 29: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 28

Figura 3.16: División en perfiles del estándar H.264 [7]

términos de PSNR7, H.264 necesita un bitrate mucho menor al de MPEG-2[7] [8].

En la figura 3.17 se puede observar cómo la calidad ofrecida por H.264 es mayor

para una misma tasa binaria, o cómo para una misma PSNR, el ahorro de ancho

de banda puede llegar al 50 % en el caso de H.264.

Aunque los experimentos demuestran que la ratio de compresión proporcio-

nada por H.264 mejora con creces la de otros estándares previos, la eficiencia de la

compresión puede ser aún mayor si se utilizan los perfiles y niveles más amplios

del estándar. El motivo por el que estos perfiles no se usen se debe en parte a los

costes de implementación relativos a patentes y licencias, además de la compleji-

dad que conllevan.

7Peak Signal to Noise Ratio: Relación Señal a Ruido entre la imagen original y error cometidoen la imagen codificada, calculado cuadro a cuadro. Si bien la PSNR es una medida objetiva de lacalidad de una señal de vídeo, no siempre coincide con la calidad percibida por el usuario, comoveremos en la sección 7.2.

Page 30: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 29

Figura 3.17: Calidad de la codificación en H.264 y MPEG-2 en términos de PSNRde la componente de Luminancia. PSNR frente a tasa de bits (izquierda) y ahorrorelativo de ancho de banda frente a la PSNR (derecha). [8]

Page 31: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

4Transmisión de datos sobre

redes móviles

A continuación pasamos a comentar de forma breve una panorámica de la

comunicaciones móviles con servicio de transmisión en modo paquete o data-

grama. En este sentido, distinguiremos dos tipos de redes: aquellas cuya principal

función es la conexión para transmisión de paquetes y aquellas donde esta fun-

ción complementa a otras características, como voz, videotelefonía o mensajería.

Esta distinción se refleja en las secciones 4.1, donde abordaremos las redes que

combinan servicios de paquetes con servicios de telefonía, y 4.2, donde veremos

las redes de uso exclusivo en modo paquete.

4.1. Redes Telefónicas

GPRS

La tecnología GPRS es una mejora paralela construida sobre el estándar GSM.

Esto significa que se mantiene la estructura de la interfaz radio invariable, pero el

contenido se construye de manera diferente para dar soporte al tráfico de paque-

tes, implementándose canales específicos en la estructura de trama de GSM.

Por defecto, el tráfico GPRS se considera de prioridad secundaria en la interfaz

radio de GSM. Cuando es necesario acelerar el tráfico GPRS, el operador puede

optar por asignar de manera fija una cierta cantidad de canales físicos al tráfico

de paquetes. Cada uno de estos canales de tráfico de paquetes (PDCHs) se mapea

sobre una ranura de tiempo.

Diferentes autores han estudiado la calidad de servicio proporcionada por GPRS,

30

Page 32: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 31

Tabla 4.1: QoS en GPRS. Throughput de pico[9]

Clase Throughput de pico (bps)1 80002 160003 320004 640005 1280006 2560007 5120008 10240009 2048000

y su comportamiento mediante diferentes simulaciones [9][10]. En este sentido,

la revisión de 1999 del estándar GPRS introduce parámetros de calidad de servi-

cio de granularidad mucho más fina, permitiendo una utilización más eficiente de

la red por parte del operador. La Calidad de Servicio (QoS) se establece en térmi-

nos de fiabilidad del servicio, tasa pico, tasa media o incluso de tasa garantizada.

Aunque la tasa de pico tiene valores considerablemene altos, esta tasa no está ni

mucho menos garantizada, ya que mide la velocidad máxima a la que la red pue-

de transmitir la información de paquetes, en distintos puntos de referencia de la

arquitectura. Es por ello que tiene mucho más sentido evaluar el comportamiento

de GPRS en términos de throughput medio. En las tablas 4.1 y 4.2 se muestran las

tasas de pico y el throughput medio alcanzado por las distintas clases de servicio

de GPRS.

Para valorar las aplicaciones soportadas por GPRS hay que tener en cuenta el

momento en el que se definió el estándar (1997 en su primera versión). El prin-

cipal interés de los usuarios respecto a GPRS es el uso del correo electrónico, la

navegación por la web e incluso otros servicios multimedia, como la transmisión

de vídeo, aunque eso sí, a tasas binarias bajas (codificación mediante la recomen-

dación H.263 de la ITU), ya que en el mejor de los casos, GPRS permite al usuario

un tráfico continuado de paquetes de hasta 110 Kbps.

Page 33: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 32

Tabla 4.2: QoS en GPRS. Throughput medio[9]

Clase Throughput medio (bps)1 0.222 0.443 1.114 2.25 4.46 11.17 228 449 111

10 22011 44012 111013 220014 440015 1110016 2200017 4400018 11100031 best effort

UMTS

Introducción a la telefonía de Tercera Generación

Las limitaciones de los estándares de primera y segunda generación produ-

jeron que un consorcio (3GPP1) formado por multitud de entidades, fabricantes

y operadores se encargara de realizar la especificación de la telefonía de tercera

generación, conocida como 3G. El objetivo de esta nueva generación de telefonía

móvil era plantear un sistema universal de telefonía móvil, que no estuviera limi-

tado a países o regiones. Por otra parte, el nuevo sistema de telefonía debía ser

capaz de mejorar la eficiencia del uso del espacio radioeléctrico y a la vez soportar

mejores y novedosos servicios. Estas dos características son las que dan nombre

al estándar UMTS: Sistema Universal de Telecomunicaciones Móviles, donde que-

dan claras las intenciones de universalidad y de proporcionar comunicaciones de

todo tipo, no sólo telefónicas.

1Third Generation Partnership Project

Page 34: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 33

La tecnología 3G introduce el uso de WCDMA2: un nuevo método de acceso

radio diferente de el acceso por división en tiempo (TDMA3) utilizado en GSM,

que en determinadas condiciones es más eficiente que TDMA y más apropiado

en el caso de transmisión de paquetes.

Figura 4.1: Técnica básica del espectro ensanchado por secuencia directa(DSSS)[13]

La tecnología WCDMA emplea la técnica de Espectro Ensanchado por Secuen-

cia Directa (DSSS), cuyo principio básico se ilustra en la figura 4.1. La señal de da-

tos de WCDMA se aleatoriza con un código de pseudorruido (PN) específico para

cada usuario en la parte de la unidad transmisora con el fin de ensanchar la señal

por toda la banda. En la unidad receptora, la señal recibida se extrae utilizando la

misma secuencia de código, ver figuras 4.2 y 4.3.

En WCDMA se llama bit al bit del flujo original de datos de usuario, mientras

que el bit de código utilizado para el ensanchamiento se denomina chip. La ve-

locidad binaria del código utilizado para el ensanchamiento de la señal original

es de 3.84 Mchip/s. En qué medida se ensanche la señal depende del factor de

ensanchamiento asociado. El factor de ensanchamiento es un multiplicador que

describe el número de chips utilizados en el trayecto WCDMA por cada símbolo

(un símbolo no tiene por qué corresponder con un bit de usuario). En la tabla 4.3

se pueden observar las relaciones entre las tasa de símbolos, las tasas binarias y

los factores de ensanchamiento utilizados en el canal ascendente y descendente

de WCDMA.

2Wideband Code Division Multiple Access: Acceso múltiple por división en código de banda an-cha

3Time Division Multiple Access:Acceso Múltiple por División en el Tiempo

Page 35: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 34

Figura 4.2: Funcionamiento del ensanchado en WCDMA [14]

Figura 4.3: Funcionamiento de la división en código como método de acceso múl-tiple [14]

UMTS Release 99

La primera versión del estándar desarrollado por el 3GPP se conoce como Re-

lease 99. Con esta versión, las velocidades de transmisión soportadas son de 64

Kbps en modo circuito y de 384 Kbps para transmisión de paquetes en bajada y

128 Kbps en subida4, triplicando así las velocidades ofrecidas por GPRS.

4En adelante las velocidades de subida y bajada se expresarán de la forma Bajada/Subida. Ej:384/128 Kbps

Page 36: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 35

Factor deEnsanchado

Dirección Ascendente Dirección DescendenteKsímbolo/s Kbit/s Ksímbolo/s Kbit/s

4 960 960 960 19208 480 480 480 960

16 240 240 240 48032 120 120 120 24064 60 60 60 120

128 30 30 30 60256 15 15 15 30512 - - 7.5 15

Tabla 4.3: Relación entre el factor de ensanchado, tasa de símbolos y tasa binariaen WCDMA

Evolución de UMTS: HSPA y LTE

EL estándar UMTS descrito por el 3GPP, lejos de permanecer constante, ha su-

frido numerosas evoluciones, proporcionando al usuario nuevas funcionalidades.

Además, la aplicación de las mejoras mediante evolución permite a los operadores

la introducción paulatina de las tecnologías, ya que los terminales de una versión

posterior son siempre compatibles con redes de versiones anteriores y viceversa.

Las releases 05 y 06 introdujeron importantes mejoras en la capacidad de las

redes 3G para la transmisión de paquetes. No en vano, son conocidas por sus so-

brenombres (HSDPA/HSUPA5: Acceso de paquetes de alta velocidad descenden-

te/ascendente), donde quedan patentes las nuevas capacidades. Con las mejoras

introducidas por las releases 05 y 06, las velocidades soportadas para la transmi-

sión de paquetes crecen hasta los 14/5.76 Mbps. Estas velocidades son teóricas6, y

actualmente no son soportadas por los operadores en territorio nacional, siendo

las velocidades ofrecidas comercialmente de 7.2/2 Mbps. Las siguientes revisiones

del estándar, añaden modulaciones, MIMO y otras técnicas, mejorando conside-

rablemente las velocidades teóricas, llegando a 42/11.5 Mbps.

El 3GPP también se encarga de describir las características a largo plazo del

sistema 3G, en lo que se ha dado en llamar pre 4G o LTE: Long Term Evolution, es

decir la evolución a largo plazo del 3G. Con la llegada del pre4G, se espera poder

ofrecer throughputs de en torno a 100-300 Mbps.

5High Speed (Downlink/Uplink) Packet Access6Al hablar de velocidad teórica se hace referencia a que son velocidades alcanzadas por un úni-

co usuario en la celda. No obstante, el sistema de planificación característico de HSPA permite unuso eficiente de la capacidad disponible, realizando planificaciones a corto plazo cada 2 o 10 ms.

Page 37: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 36

802.11b 802.11a 802.11gFrecuencia (GHz) 2.4 5 2.4Tasa Binaria (Mbps) 1, 2, 5, 11 6, 12, 24, 54 54Intervalo (µs) 20 9 20, 9Alcance (interiores/exteriores) (m) 50/100 10/50 50/100

Tabla 4.4: Parámetros básicos de la tecnología 802.11 en sus distintas versiones

4.2. Redes No Telefónicas

A continuación veremos brevemente algunas de las características de dos tec-

nologías inalámbricas de transmisión de paquetes: Wi-Fi y WiMAX.

Wi-Fi

La norma IEEE 802.11 es la familia de especificaciones de la tecnología co-

mercial llamada WLAN7 o Wi-Fi. Hablamos de familia puesto que existe todo un

conjunto de posibilidades con distintas características, que se resumen en la tabla

4.2. Aunque el uso de esta tecnología se limita casi en exclusiva a entornos do-

mésticos y de oficinas, hemos decidido incluirla debido a su gran aceptación y a la

multitud de dispositivos que soportan alguna de las variantes de la norma: desde

cámaras fotográficas o impresoras, a teléfonos móviles y ordenadores personales.

WiMAX

WiMAX es el Acrónimo de Worldwide Interoperability Microwave Access y hace

referencia al estándar IEEE 802.16, en sus dos versiones: 802.16d8, publicada en

2004 y que da soporte al acceso fijo y la versión 802.16e, publicada en 2006 y que

introduce soporte de movilidad. Las principales características de WiMAX son las

siguientes:

Sistema Celular. WiMAX propone un sistema celular con múltiples modulacio-

nes, lo que le permite utilizar adaptación de enlace para ajustarse a las con-

diciones de radiopropagación del medio, como ilustra la figura 4.4.

7Wireless Local Area Network8También conocida como 802.16-2004

Page 38: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 37

Frecuencias. Se utilizan frecuencias licenciadas en el rango entre 2.5 y 11 GHz.

El uso de frecuencias licenciadas minimiza las interferencias por parte de

usuarios ajenos, mejorando así una de las deficiencias de las redes Wi-Fi.

Tasas binarias. Según las condiciones del canal radio, se pueden conseguir tasas

de hasta 100 Mbps, aunque aproximaciones más realistas sitúan las veloci-

dades de transmisión en torno a los 10 Mbps.

Alcance. El alcance proporcionado para cada una de las celdas de WiMAX es de

alrededor de 20 Km en exteriores, y de alrededor de 10 en interiores.

Figura 4.4: Adaptación de enlace en una celda WiMAX[15]

4.3. Tabla Resumen

A modo de resumen, en la tabla 4.3 se detallan los límites teóricos de las dis-

tintas tecnologías comentadas a lo largo de este capítulo.

Page 39: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 38

GPRS HSPA WiFi WiMAXEspectro Radioeléctrico Licenciado Licenciado Uso Libre LicenciadoTasa de Bits (aprox.) 100 Kbps 5 Mbps 50 Mbps 10 MbpsAlcance <25 Km <5 Km <100 m <20 Km

Tabla 4.5: Tabla Comparativa de tecnologías

Como puede observarse, las tecnologías que mayores tasa binarias soportan

son WiMAX, WiFi y HSPA. Dado que WiFi utiliza la banda ciudadana en torno a

los 2.4 GHz, para un uso intensivo y/o comercial de transmisión de vídeo, se ha-

ce necesario utilizar alguna de las técnicas que utilizan espectro licenciado. Los

claros candidatos son WiMAX y HSPA, que son los dos sistemas que más se es-

tán explorando actualmente. En el próximo capítulo se comenta el estado del arte

de la transmisión de vídeo sobre IP, haciendo especial hincapié en las tecnologías

inalámbricas, especialmente WiMAX y telefonía móvil 3G.

Page 40: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

5Vídeo sobre IP

La transmisión de vídeo en tiempo real1 sobre redes IP ha experimentado un

importante avance en los últimos tiempos. De una parte, sistemas vídeo bajo de-

manda, proporcionan a los usuarios la posibilidad de disfrutar en el momento que

deseen del contenido que elijan. Por otra parte, existen sistemas de difusión (mul-

ticast) en los que un grupo de usuarios reciben contenidos de manera cableada o

inalámbrica.

A continuación comentamos diferentes trabajos desarrollados en este cam-

po, lo que nos permitirá conocer el estado del arte de la transmisión de vídeo en

tiempo real mediante redes IP inalámbricas. Comenzaremos explicando la torre

de protocolos que puede soportar este tipo de comunicaciones en la sección 5.1.

A continuación veremos diferentes casos particulares para tecnologías móviles.

Finalizaremos comentando el estado actual de las distintas iniciativas para la es-

tandarización de sistemas de televisión sobre IP.

5.1. Modelo de un sistema de transmisión de vídeo sobre

IP

En la figura 5.1 se muestra el diagrama funcional de un sistema de transmisión

de vídeo sobre redes IP. Se trata de una estructura cliente/servidor que conecta

1Al decir transmisión en tiempo real nos referimos a que el flujo de vídeo se está enviando parasu reproducción inmediata, cualquiera que sea el contenido del mismo (programación en directoo en diferido). Esta técnica, que no requiere la transmisión completa de la información para sureproducción, se conoce habitualmente como streaming.

39

Page 41: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 40

extremo a extremo la parte proveedora de vídeo con el(los) consumidor(es). En la

figura 5.2 se muestran las torres de protocolos que soportan una comunicación de

vídeo en streaming para esta arquitectura.

Figura 5.1: Arquitectura de un sistema de transmisión de vídeo sobre IP

Figura 5.2: Protocolos para soportar una transmisión de vídeo sobre IP

Contenido Audiovisual. El contenido audiovisual transportado puede ser de qual-

quier tipo, teniendo especial interés el estándar de compresión utilizado y

que este sea compatible con el sistema de empaquetado. Ejemplos de siste-

mas de codificación los hemos visto en capítulos anteriores.

Empaquetado. Una vez se tiene un flujo de vídeo codificado, éste ha de ser empa-

quetado y multiplexado junto al correspondiente canal o canales de audio,

Page 42: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 41

para su transporte a través de redes IP. Un sistema muy extendido para la

transmisión de contenidos audiovisuales en modo paquete son los streams

de MPEG-2.

RTP, UDP, TCP. Aunque el transporte del vídeo puede realizarse con otros proto-

colos, el binomio RTP2-UDP es la combinación ideal para la transmisión de

contenidos sensibles a retardos, y donde es preferible la pérdida de un pa-

quete a su retransmisión. En el caso de que el contenido sea sensible a pér-

didas y no a retardos, se puede optar por transportar el contenido directa-

mente sobre TCP, teniendo en cuenta que los tiempos de retransmisión son

considerablemente largos y que para proporcionar al espectador un flujo

continuado será necesaria una memoria intermedia que pueda almacenar

el contenido de al menos el mismo tiempo necesario para la retransmisión

de un datagrama TCP.

IP. IP es el protocolo que proporciona la comunicación extremo a extremo, inde-

pendientemente del número de concentradores y encaminadores que tenga

que atravesar la comunicación.

MAC, PHY. Las capas inferiores dependen de la infraestructura física concreta del

sistema, por lo que por ahora no entraremos en más detalles.

5.2. Vídeo sobre redes inalámbricas

Avances en compresión de vídeo

El soporte inicial para vídeo sobre redes de telefonía móvil ha descansado so-

bre los estándares H.263 y MPEG-4/Visual, aunque las tasas de compresión de

H.264 lo han colocado como el estándar preferido en la actualidad para sopor-

tar transmisiones de vídeo en condiciones de fuertes restricciones de tasa binaria.

Diferentes autores han valorado las posibilidades de utilizar compresión H.264

para su uso sobre diferentes tipos de redes inalámbricas, en particular, redes 3G

[19, 20, 21, 22] y WiMAX [23]. Además, el uso de la versión escalable de H.264

(H.264/SVC3) está siendo tenido muy en cuenta desde los propios organismos de

estandarización, como el 3GPP, ya que los servicios multimedia basados en 3G co-

2Protocolo para tiempo real (Real Time Protocol)3Scalable Video Coding

Page 43: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 42

mo MBMS4, podrían beneficiarse de las ventajas de escalabilidad que proporciona

esta nueva mejora del estándar, como subrayan Schierl [24] y Ruobin [25].

Un caso claro de las mejoras que supone el uso de la versión esclable lo expone

el trabajo de Atici et al.[26]. La difusión de vídeo en sistemas celulares introduce el

problema de optimizar el número de usuarios y la tasa media de paquetes deco-

dificados correctamente. Cuando se usa un sistema basado en WCDMA, como es

el caso de UMTS, un mayor número de usuarios activos en una celda incrementa

los niveles de ruido en la misma, por lo que las condiciones del medio varían con

cada nuevo usuario. Para ello Atici et al.[26] proponen el uso de la extensión de

Codificación Escalable de Vídeo del estándar H.264. Con esta técnica, se pueden

lograr calidades por niveles, de manera que los terminales con peores condiciones

de recepción reciban sólo el nivel básico de calidad mientras que los que, por el

contrario, disfruten de unas mejores condiciones de acceso al medio podrán reci-

bir niveles superiores que mejorarán la calidad recibida mediante el nivel básico.

En la figura 5.3 se puede ver un esquema de los niveles a los que pueden acceder

los distintos usuarios de una misma celda.

Esta filosofía de multicast en distintas capas ha sido utilizada sobre diversas

redes, y por supuesto, también sobre WiMAX. En el caso de WiMAX, Chiang et

al. [23] describen un sistema de prioridades para los usuarios, de manera que la

calidad percibida en momentos de congestión en la red disminuye para aquellos

usuarios con prioridades más bajas, que recibirán exclusivamente la capa más ba-

ja de la codificación escalable del flujo H.264. Esta misma técnica es descrita por

Schierl en [27], respecto a un sistema de transmisión de vídeo digital DVB-H5, para

poder ofrecer las siguientes características:

Dar servicio a terminales con diferentes capacidades, disminuyendo el an-

cho de banda necesario, ya que los terminales con pantallas pequeñas u

otras limitaciones podrían decodificar sólo una capa del flujo de vídeo, mien-

tras que los dispositivos más avanzados decodificarían además el resto de

capas.

Acceso condicional a determinadas calidades, mediante encriptación de las

capas más altas.

Degradación elegante de la señal, si se utilizan formas de protección de erro-

res distintas para cada capa. De esta manera, si la recepción de una capa

4Multimedia Broadcast/ Multicast Service5Digital Video Brodcasting - Handheld: Difusión de Vídeo Digital para dispositivos Móviles

Page 44: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 43

Figura 5.3: Zonas de cobertura para los distintos sub-flujos de vídeo

falla el dispositivo muestra la calidad resultante del resto de capas.

Introducción de mejoras de forma retrocompatible, simplemente mediante

la introducción de nuevas capas. Los terminales antiguos pueden seguir de-

codificando las capas antiguas, mientras que los nuevos obtendrían mejor

calidad incorporando las capas superiores.

En la figura 5.4 se representan de manera visual las posibilidades de utilizar SVC

para la transmisión de vídeo sobre IP.

Comportamiento frente a errores

Otro aspecto importante a tener en cuenta en cuanto a la transmisión de ví-

deo sobre redes inalámbricas es la calidad que se observa ante problemas en la

transmisión. En este sentido, el uso de sistemas de ocultación de errores (error

Page 45: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 44

Figura 5.4: Esquema de utilización de H.264/SVC para un transmisor inalámbricode DVB-H

concealment) se hace indispensable. Existen diferentes propuestas para mejorar

el comportamiento de la transmisión de vídeo a través de canales ruidosos, des-

tacando especialmente las técnicas FEC6 [28, 29, 30, 31, 32], ya que en sistemas

sensibles a retardo, las retransmisiones de información son muy desaconsejables,

por lo que se procura proporcionar algún tipo de redundancia en la transmisión

de manera que el cliente pueda corregir y/u ocultar los errores producidos en el

flujo de vídeo. Entre estas técnicas existen algunas [29, 30, 31, 32] donde se em-

plea el concepto de asignar distintas prioridades e importancias a paquetes para

los que se proporciona una redundancia adicional, de cara a conseguir una pro-

tección desigual contra errores (Unequal Error Protection).

Ha et al. [33] emplean un modelado del canal y de la distorsión para crear un

sistema de corrección de errores FEC adaptativo que procura, en la medida de lo

posible, ocultar el error (EC: Error Concealment) y evitar su propagación (EP: Error

Propagation). Ha et al. [33] proponen un sistema de asignación automática de pa-

quetes de corrección de errores en función de la distorsión prevista por el modelo,

de la siguiente manera proporcional a Dl la distorsión media prevista para el blo-

que de paquetes (BOP) l-ésimo. Es decir, cuanto más grave puede ser la distorsión,

se añade una mayor cantidad de bits de corrección.

A lo largo del trabajo se describe en detalle el método empleado y los resulta-

6FEC: Forward Error Correction

Page 46: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 45

dos obtenidos en términos de PSNR frente a otras técnicas de protección contra

errores: Equal-FEC y GRIP (GOP Resynchornization packet level Integration Pro-

tection) desarrollada por Yang [32] y frente a los datos sin protección. En la figura

5.5 podemos observar como el comportamiento de los métodos de Yang [32] y Ha

[33] es muy similar y superior a los demás métodos en el caso de existencia de

pérdida de paquetes, siendo Ha [33] la mejor opción de las contempladas. Es in-

teresante notar que para casos en los que no existe pérdida de paquetes, el mejor

esquema posible es la no existencia de corrección de errores, ya que en ese caso

todo el régimen binario disponible se dedica a comprimir el flujo de vídeo con

menor grado de pérdida.

Otra importante ventaja que aporta el método de Ha [33] frente al de Yang [32]

es una drástica disminución del coste computacional, lo que lo hace más apropia-

do pra transmisiones en tiempo real, como puede observarse en la figura 5.6.

Page 47: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 46

Figura 5.5: PSNR Media para dos vídeos distintos enviados con diferentes métodosde corrección de errores[33]

Page 48: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 47

Figura 5.6: Comparación del coste computacional de los métodos de Yang [32] yHa [33]

Page 49: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 48

Otro trabajo que puede resultar de amplio interés en la decodificación de ví-

deo es el realizado por Sabeva et al. [34], donde proponen un esquema de deco-

dificador combinado de canal y fuente (Joint Source Channel Decoder) específico

para el caso de utilizar compresión H.264. El método propuesto consiste en me-

jorar el coportamiento de H.264 durante la decodificación de paquetes de vídeo

con errores, mediante decodificación secuencial, en este caso usando el algorit-

mo MA [35]. En la figura 5.7 se muestra la mejora que proporciona este método en

términos de PSNR, para distintos valores del parámetro M del algoritmo MA. Un

ejemplo visual del resultado de esta decodificación robusta propuesta por Sabeva

et al. [34] podemos verlo en la figura 5.8.

Figura 5.7: Mejora en términos de PSNR del esquema de Decodificación de Sabeva[34]

Page 50: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 49

Figura 5.8: Un mismo fotograma con decodificación estándar y la propuesta porSabeva [34]

Un caso especial de degradación de la señal en sistemas celulares es el del

traspaso entre celdas. Este proceso, conocido como hand-off o hand-over, se des-

encadena de manera automática cuando el nivel de señal recibido por el terminal

móvil en una celda disminuye hasta llegar a niveles parecidos a los de la celda

contigua. En este sentido, el de proporcionar métodos de ocultación y corrección

de errores, se desarrolla el trabajo realizado por Kim et al. [36], donde se propone

un esquema que aporta robustez ante los errores a un sistema de transmisión de

vídeo sobre redes inalámbricas, en este caso WiMAX. El esquema propuesto con-

siste en incluir un fotograma (key frame) en la memoria a largo plazo del decodifi-

cador en cuanto se empiece a notar un descenso en el nivel de señal que indique

que se va a realizar un traspaso. Los fotogramas siguientes se codificarán con dos

referencias para la compensación de movimiento (LDMC7). Por último, cuando se

acaba el traspaso, se refresca el canal8 con otro fotograma tipo I. En general, este

procedimiento implica una modificación adaptativa del GOP, de manera que se

detenga la propagación del error. En la figura 5.9 puede observarse la estructura

del GOP original y la versión modificada para la ocultación de errores en traspaso.

El uso del sistema propuesto por Kim et al. [36] supone una mejora importante

del comportamiento frente a errores en transmisión de vídeo en redes inalámbri-

cas celulares, como puede verse en las imágenes de la figura 5.10, donde se mues-

tran tres fotogramas de un mismo vídeo con distintas técnicas de ocultación de

errores y la mejora que supone el esquema LDMC/CAR. La figura 5.11 muestra la

evolución de los niveles de señal que provocan el traspaso, junto con la evolución

7Long-term Double Motion Compensation8CAR:Channel Adaptive Refresh

Page 51: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 50

Figura 5.9: (a) GOP original en traspaso, (b) GOP modificado mediante el algorit-mo LDMC/CAR

de la tasa binaria de codificación y la PSNR obtenida en el cliente respecto al vídeo

original.

Page 52: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 51

Figura 5.10: Tres fotogramas durante el traspaso. (a-c) fotogramas originales, (d-f)fotogramas sin técnicas de ocultación de errores, (g-i) fotogramas con ocultaciónde errores por compensación de movimiento doble, (j-l) fotogramas con oculta-ción de errores por algoritmo LDMC/CAR

Figura 5.11: Evolución de los niveles de señal, tasa binaria y PSNR durante el tras-paso

Page 53: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 5. VÍDEO SOBRE IP 52

5.3. Estandarización de IPTV e IPTV Móvil

Para promocionar y coordinar el desarrollo de estándares IPTV globales, la

ITU-T forma en 2006 un grupo de enfoque llamado FG-IPTV. Más adelante, en

2008, el grupo IPTV-GSI tomó el relevo para realizar la estandarización. En este

ámbito, la ITU-T define la arquitectura IPTV y posteriormente la clasifica en redes

de nueva generación (NGN) y redes no-NGN. Entre las redes de nueva generación,

se puede incluir el Subsistema Multimedia basado en IP (IMS), como una aproxi-

mación a la IPTV móvil.

Existen diversas maneras de proporcionar IPTV Móvil [17]. La primera, parte

de agregar funcionalidades IP a las redes de difusión móvil ya existentes, en este

caso hablamos de TV Móvil + IP. En este área se desarrollan los trabajos del grupo

DVB-CBMS9, que elabora especificaciones de protocolos para la difusión bidirec-

cional basada en IP sobre DVB-H, el estándar que proporciona difusión de vídeo

digital a dispositivos móviles. Aunque TV Móvil + IP está clasificada como IPTV

Móvil, el uso de redes de difusión podría producir pérdida de la individualidad

que proporciona IP, como la comunicación interactiva punto a punto o los servi-

cios personalizados.

El caso contrario es el de añadir movilidad a los servicios existentes de IPTV. En

este caso, toman partido las empresas del sector de las telecomunicaciones, que

añaden la posibilidad de recepción de IPTV en los terminales móviles que usan sus

redes, así como los terminales fijos. El esfuerzo para elaborar las especificaciones

de IPTV Móvil, es relativamente reciente y está siendo llevado a cabo por parte de

la ITU-T, incluyendo IPTV móvil dentro de los objetivos del gripo IPTV-GSI.

Un tercer grupo de trabajo lo constituye OMA-BCAST10, un grupo que preten-

de ser un foro en el que diversas compañías acuerden los estándares que van a

utilizar para diversos servicios. La filosofía de OMA-BCAST es lograr proporcionar

servicios con independencia de la red, de manera que permite la interoperabili-

dad entre distintos dipositivos, operadoras y países. Sus objetivos respecto a IPTV

Móvil son definir un marco de trabajo para la difusión móvil, proporcionando ser-

vicios de difusión basados en IP.

9Digital Video Broadcasting’s Convergence of Broadcast and Mobile Services10Open Mobile Alliance’s Broadcasting Working Group

Page 54: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

6Solución propuesta

Como hemos visto, la mayor parte del esfuerzo realizado hasta la fecha pa-

ra modelar, simular y proponer sistemas de transmisión de vídeo sobre telefonía

móvil ponen el acento en la recepción del contenido en terminales móviles, que

tienen distintas limitaciones, como la visualización del vídeo recibido, que se rea-

liza en una pantalla de alrededor de 3 o 4 pulgadas, lo que implica que el servidor

fijo debe adaptar hacia abajo la calidad del vídeo para hacerlo apropiado para el

cliente móvil. Sin embargo, la solución que se plantea en este proyecto se basa en

intercambiar el modelo cliente/servidor,de manera que el servidor se hace móvil

y aprovecha al máximo los rescursos de que dispone (capacidad de procesado, ta-

sa binaria, etc.) para que el cliente fijo pueda obtener un contenido con la mayor

calidad posible.

6.1. Estructura detallada del sistema

Comenzamos comentando la estructura del sistema propuesto para propor-

cionar transmisión de vídeo en tiempo real desde una unidad móvil virtual hasta

un centro de producción de televisión, de manera que la señal de vídeo pueda ser

añadida al sistema de ingesta de un canal de televisión, para que el contenido sea

utilizado como directo o contribución en la programación.

El sistema propuesto consta de dos equipos claramente diferenciados, el pri-

mero es el que realiza las tareas de compresión, empaquetado y transmisión; mien-

tras que el segundo se encargará de recibir la señal de vídeo. Un esquema general

de la estructura puede observarse en la figura 6.1.

53

Page 55: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 6. SOLUCIÓN PROPUESTA 54

Figura 6.1: Estructura del sistema de Unidad Móvil Virtual

Equipo Portátil

El equipo principal del sistema es el servidor de vídeo portátil, cuyo objeti-

vo es sustituir las unidades móviles ENG/DSNG. A continuación describimos los

elementos que forman parte de este equipo:

Videocámara. Para el proyecto se cuenta con una videocámara profesional con

conexión FireWire a un PC portátil.

Módem USB. El servidor obtiene conectividad a una red IP (en nuestro caso, In-

ternet) mediante el uso de un módem USB proporcionado por Vodafone.

Se trata del modelo HUAWEI E-272, que puede verse en la figura 6.2. Este

módem es capaz de conectarse a diversas redes: GPRS, 3G Básico (UMTS

Release 99) y HSUPA (UMTS Release 06). En el proyecto hemos utilizado és-

ta última posibilidad, obteniendo velocidades de transmisión de 3 Mbps en

bajada y hasta 1.44 Mbps en subida.

PC Portátil. La base de la unidad móvil virtual es un PC portátil que se encarga

de recibir la señal de vídeo captada por la videocámara en banda base, co-

dificarla a la tasa de bits adecuada y transmistirla a través de la conexión

HSUPA establecida por el módem.

Equipo Fijo

Para la realización del proyecto, se ha instalado un PC en las instalaciones de

Radio y Televisión de Andalucía (RTVA), que se encarga de las tareas de recepción

Page 56: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 6. SOLUCIÓN PROPUESTA 55

Figura 6.2: Módem USB HSUPA

de vídeo, almacenamiento para su posterior análisis y monitorización del tráfico

recibido. La configuración del equipo consiste en un sistema operativo Linux, al

que se le ha configurado un servidor Secure Shell (SSH), y un analizador de pa-

quetes.

6.2. Pruebas realizadas

A continuación describimos las pruebas que se han realizado a lo largo del

proyecto. Comenzaremos detallando el flujo de trabajo seguido para realizar di-

chas pruebas, el establecimiento de la conexión HSUPA a la elección de los pará-

metros de codificación. Posteriormente comentaremos brevemente los dos tipos

de secuencias de vídeo utilizadas, atendiendo a su origen: archivos de vídeo o ví-

deo en directo captado por la videocámara.

Partimos de que la instalación del equipo fijo en RTVA mantiene el equipo

conectado a Internet, y con un servidor SSH a la escucha, esperando conexiones

entrantes por parte del equipo móvil.

En el extremo móvil de la comunicación, el PC portátil establece una conexión

Page 57: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 6. SOLUCIÓN PROPUESTA 56

a Internet a través del módem HSUPA. Posteriormente, se accede al cliente fijo

mediante SSH, desde donde lanzamos una conexión inversa de escritorio remoto,

mediante el protocolo VNC. Una vez aceptada la conexión entrante en el extre-

mo móvil, el acceso al equipo fijo permite iniciar la aplicación Wireshark, que se

encarga de monitorizar los paquetes que se reciben en el cliente.

Teniendo los dos equipos conectados a Internet, y el equipo fijo preparado

para monitorizar el tráfico, se comienza el envío de vídeo. Para ello, se recurre

a un software de transcodificación y streaming, que codifica el flujo de vídeo en

cuestión1.

El estándar de codificación elegido es H.264, elección que se hace en base a

las posibilidades que ofrece el estándar y que han sido comentadas a lo largo de

este documento. Al tratarse de una conexión con una fuerte restricción de tasa

binaria, se necesita un sistema de compresión capaz de proporcionar una calidad

aceptable con tasas de alrededor de 1 Mbps, lo que hace de H.264 el candidato

ideóneo para esta tarea. Como sistema de encapsulado para las señales de audio y

vídeo, utilizamos un transport stream de MPEG-2, que es capaz de transportar un

flujo H.264.

Entre los aspectos de transporte y red, destaca el uso del binomio RTP/UDP,

que como se ha comentado en la sección 5.1, es la mejor elección para realizar

transmisiones de contenido sensible a retardos.

Una vez comenzada la transmisión, el tráfico puede monitorizarse en tiempo

real mediante el acceso a escritorio remoto de VNC, aunque es preferible esperar

a que finalice el envío, puesto que el mantenimiento de la sesión VNC consume

recursos de red. De cualquier manera, una vez terminada la transmisión, el soft-

ware Wireshark permite por un lado comprobar la cantidad de paquetes perdidos

en la transmisión, y los tiempos de llegada entre ellos, así como recuperar el flujo

de vídeo a partir de los paquetes que han sido recibidos correctamente.

En cuanto al contenido de las transmisiones, distinguimos dos origenes dis-

tintos: archivos de vídeo y señal capturada mediante una videocámara. Es eviden-

te que para el objetivo real del proyecto, es decir, sustituir las unidades móviles

DSNG, la única opción posible es la de transmitir el vídeo capturado por la video-

cámara. Sin embargo, a la hora de realizar pruebas y evaluar las posibilidades del

sistema, es interesante utilizar archivos de vídeo por los siguientes motivos:

Facilidad de uso, ya que al eliminar dispositivos del sistema prototipo, se

1El flujo de vídeo puede ser o bien un archivo de vídeo o la señal entrante por FireWire si seutiliza la videocámara

Page 58: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 6. SOLUCIÓN PROPUESTA 57

reduce la complejidad del mismo y las posibilidades de fallo.

Contenidos de distintos tipos, puesto que se pueden utilizar diferentes ví-

deos con distintas resoluciones, distintas complejidades de movimiento, etc.

De esta manera, se puede probar el resultado del codificador en distintas

circunstancias.

Análisis de calidad de manera objetiva, al poder comparar la señal recibida

frente a la enviada, que también está almacenada en un archivo de vídeo.

A lo largo del siguiente capítulo mostraremos los resultados obtenidos con es-

te flujo de trabajo, en términos de pérdida de paquetes, y de calidad de vídeo al

comparar con la secuencia original, para lo que, como ya hemos comentado nos

basaremos en archivos de vídeo.

Page 59: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

7Resultados Obtenidos

A lo largo de este capítulo presentamos los resultados obtenidos a partir de las

pruebas realizadas, consistentes en el envío de distintos vídeos mediante el flujo

de trabajo descrito en el capítulo anterior. En dichas pruebas se han utilizado dos

tasas de codificación distintas para el flujo de vídeo: 768 y 1024 Kbps, mientras

que el flujo de audio consiste en un sólo canal codificado en MPEG1 a razón de

96 Kbps. Con estas tasas se alcanzan prácticamente los límites permitidos por la

tecnología usada.

7.1. Análisis del tráfico de paquetes

A continuación comentaremos brevemente los resultados obtenidos en térmi-

nos de tráfico de paquetes: cantidad de paquetes perdidos, retardos, etc. para uno

o varios enlaces simultáneos en la misma celda.

Paquetes perdidos en un enlace único

En la Figura 7.1 puede apreciarse como en más de la mitad de las experiencias

no se perdió ningún paquete, siendo éste el caso más probable (la moda de la

distribución). Obviando este caso, el siguiente en probabilidad corresponderia a

una pérdida de alrededor de 1 de cada 4500 paquetes transmitidos. Si tenemos

en cuenta que un flujo de alrededor de 5 minutos contiene entre 20.000 y 40.000

paquetes, la pérdida más probable sería de entre 4 y 9 paquetes (como ya hemos

dicho, obviando que en más de la mitad de los casos no se pierde ningún paquete).

58

Page 60: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 59

De cualquier forma, en el caso general, el valor esperado de paquetes perdidos es

de un 0,0089 % o lo que es lo mismo, uno de cada 11.250 paquetes enviados.

Figura 7.1: Paquetes perdidos para un enlace único - Datos Empíricos

Retardos en un enlace único

Los resultados experimentales muestran un retardo de entre 1 y 2 segundos

entre la señal de vídeo original y la señal recibida. Esto es así en las pruebas en

directo con dos PCs en los que se visualiza el vídeo, notándose un retardo mayor

al comenzar la transmisión. Por otro lado, la máxima desviación de retardo para

la llegada de paquetes es de alrededor de 200 ms, por lo que para una aplicación

que pretenda mostrar la señal de forma contínua se hace indispensable tener buf-

fers de tamaño superior a dicha cantidad. El valor medio del Jitter, o variación del

retardo entre paquetes, es de aproximadamente 10 ms.

Page 61: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 60

Figura 7.2: Retardo entre dos paquetes consecutivos

Paquetes perdidos en un enlace múltiple

En las pruebas realizadas, se incluyó un experimento en el que se dispusieron

varios enlaces funcionando simultáneamente. En este caso, se produce una mayor

demanda de ancho de banda al nodo B, y previsiblemente esta demanda no pueda

ser atendida. Los resultados demuestran que las pérdidas de paquetes aumentan,

sobre todo cuando se incrementa el número de módems HSUPA por encima de

2. En la Figura 7.3 puede apreciarse la frecuencia de ocurrencia de pérdida de pa-

quetes. En el histograma se observa que la probabilidad de pérdida de paquete es

mucho mayor, en este caso el valor esperado para la pérdida de paquetes supone

un 0,5 %, un incremento de más de 50 veces respecto al caso anterior.

Page 62: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 61

Figura 7.3: Paquetes perdidos para un enlace múltiple - Datos Empíricos

Retardos en un enlace múltiple

Además del incremento sustancial de la probabilidad de pérdida de paquetes,

un problema añadido de la transmisión simultánea desde varias fuentes situa-

das en la misma celda de la red de telefonía móvil es el peor comportamiento en

cuanto a retardos. Debido al comportamiento del scheduler en la estación base,

el ancho de banda disponible se va compartiendo entre los terminales. El resulta-

do es que los retardos entre paquetes consecutivos (aunque no contiguos en se-

cuencia, ya que pueden haber existido pérdidas) de un mismo flujo RTP aumenta

ostensiblemente, y de estar en torno a 200ms pasa a alcanzar niveles de hasta 20

segundos. En la Figura 7.2 puede observarse que él histograma contiene un modo

muy marcado en torno a 200 ms, que concentra cerca del 50 % de las ocurrencias,

mientras que el 50 % restante se distribuye en retardos más amplios, debido a las

transmisiones con mayor cantidad de pérdidas producidas por la incapacidad del

nodo B para atender todas las peticiones en el enlace ascendente.

7.2. Introducción a las métricas de calidad para vídeo

A lo largo del estudio se han realizado transmisiones de diferentes vídeos y se

ha evaluado de diversas formas la calidad de los mismos de forma comparativa,

es decir, para cada fotograma, se comparan la imagen de la secuencia original con

Page 63: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 62

la de la secuencia recibida. Las medidas que se han utilizado han sido la Relación

Señal a Ruido de Pico (PSNR) como medida no perceptual; y dos medidas que

procuran predecir la percepción de la calidad basándose en diferentes técnicas:

SSIM y VQM.

PSNR

Esta medida es muy usada en la práctica para muchas otras aplicaciones en

ingenieria, sin embargo, al ser una técnica no perceptual sino totalmente objetiva

los resultados que produce no se ajustan completamente a los que cabría espe-

rar de un estudio tipo MOS1. En sentido amplio, coincide con el Error Cuadratico

Medio (MSE) pero, la propiedad logarítmica (ver Ecuación 7.1) de la PSNR la ha-

ce más conveniente. La métrica puede aplicarse a cada uno de las componentes

de una imagen en color, pero dado que el sistema visual humano es mucho más

sensible las variaciones de luminosidad que a las de color, se optó por aplicarla

exclusivamente a la componente de luminancia (Y) del espacio de color YUV.

d(X ,Y ) = 10log102552nm

n,m∑i=1, j=1

(Xi , j −Yi , j )2(7.1)

SSIM

La métrica SSIM[37] consiste en procurar independizar factores como la lumi-

nosidad y el contraste del resto de la imagen para comparar de forma estructural

los objetos que aparecen en la misma (Figura 7.4). El desarrollo de éste método

surge por la necesidad de tener alguna medida más allá del Error Cuadratico Me-

dio o la PSNR, ya que el comportamiento de estas últimas métricas no proporcio-

nan suficiente información sobre los cambios que hay en la imagen, como puede

observarse en la Figura 7.5.

VQM

La métrica VQM descrita por Xiao [38] se basa en el uso de la Transformada

Discreta Coseno para aprovechar las propiedades espacio-temporales del sistema

de percepción humano. A su vez, Xiao se basa en la propuesta de Watson[39], aña-

diendo algunas mejoras como:

1Mean Opinion Score: esta técnica consiste en promediar la opinión de distintos expertos enanálisis de calidad de vídeo.

Page 64: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 63

Figura 7.4: Diagrama de un sistema de medida basado en la similitud estructural.

Figura 7.5: Imagen original y cinco copias con el mismo Error Cuadrático Medio(MSE=210).

Aplicar dos matrices SCSF (Función de Sensibilidad a Contraste Espacial):

una para imágenes fijas y otra para imágenes dinámicas, basadas a su vez

en las matrices de cuantización MPEG. La diferencia entre ambas es una

operación potencia proporcional a la tasa de fotogramas.

Se estima el valor de la métrica a partir del máximo valor de distorsión en

cada fotograma, ponderado con la media de distorsión. Según el autor, esto

Page 65: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 64

refleja el hecho de que una distorsión grande localizada enmascara la per-

cepción de pequeñas distorsiones en el resto del fotograma (Figura 7.6).

Figura 7.6: Imágenes con distinto VQM y media cero.

7.3. Análisis de calidad proporcionada por el sistema de

unidad móvil virtual

Los resultados obtenidos se basan en la aplicación de las técnicas menciona-

das a tres vídeos diferentes, en varias ocasiones, y con distintas tasas de codifica-

ción. Estas medidas muestran una dependencia de la calidad mucho más fuerte

con las caracteristicas del video que con la tasa de codificación. Habida cuenta de

que la tecnología permite un margen relativamente pequeño de mejora de la tasa

de codificación (nos movemos entre 768 y 1024 Kbps) esta puede ser la causa de

que la dependencia sea mucho mayor con las características del vídeo.

Page 66: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 65

Vídeo Sencillo

Se analizan a continuación las pruebas realizadas con material sencillo, con

pocos cambios de plano y con movimientos lentos y suaves. Las características

del material permiten al codificador una eficiencia muy alta a la hora de codificar

en tiempo real. En las figuras 7.7,7.8,7.9 se muestra un análisis gráfico de los datos

obtenidos. Como puede observarse, la mayor parte de los fotogramas tienen un

parecido bastante alto con el original, ya que la media de la PSNR se sitúa en los

44 dB. Este parecido se aprecia de una forma mucho más notable en la medida de

la Similitud estructural, cuyo valor medio es de 0,96 tantos por uno.

Figura 7.7: Vídeo Sencillo - Datos Empíricos de PSNR.

Page 67: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 66

Figura 7.8: Vídeo Sencillo - Datos Empíricos de SSIM.

Figura 7.9: Vídeo Sencillo - Datos Empíricos de VQM.

Vídeo Complejo

Mientras que con un vídeo sencillo apenas se encuentran problemas, y las pér-

didas de paquetes si son leves permiten que las técnicas de ocultación de errores

previstas por H.264 minimicen la visibilidad de los errores, al tratar con un vídeo

Page 68: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 67

más complejo, en el que las velocidades de los objetos son superiores, se com-

prueba un empeoramiento de la calidad (Figuras 7.10,7.11 y 7.12). En este caso,

analizamos los resultados para dos calidades distintas de video, codificándolo en

un caso a 768 Kbps y en otro a 1024 Kbps. Como puede observarse la mejoría es

pequeña al incrementar la tasa de codificación y las diferencias con respecto a un

vídeo sencillo consisten en un ensanchamiento de la función densidad de proba-

bilidad.

Figura 7.10: Vídeo Complejo - Datos Empíricos de PSNR.

Page 69: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 7. RESULTADOS OBTENIDOS 68

Figura 7.11: Vídeo Complejo - Datos Empíricos de SSIM.

Figura 7.12: Vídeo Complejo - Datos Empíricos de VQM.

Page 70: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO

8Conclusiones

A lo largo del presente proyecto hemos avanzado desde las necesidades que

tienen los profesionales del sector audiovisual hasta una solución de transmisión

de vídeo sobre IP en tiempo real, basada en tecnologías inalámbricas. Para propo-

ner esta solución, hemos analizado las posibilidades que ofrecen las tecnologías

de compresión de vídeo y de transmisión inalámbrica. Además, hemos hecho un

breve resumen del estado del arte de la transmisión de vídeo sobre IP, y especial-

mente, de la transmisión sobre redes inalámbricas.

Los resultados muestran que la Unidad Móvil Virtual para ENG sobre HSUPA

propuesta en este proyecto, es una opción viable para la realización de conexiones

en directo en programas informativos, y para la transmisión de vídeo ya editado

para su uso como contribución en tiempo no real.

Se comprueba experimentalmente que la calidad empeora considerablemen-

te con la inclusión de nuevos usuarios si estos demandan ancho de banda al no-

do B en la misma medida. Sin embargo, con las próximas revisiones del estándar

UMTS, y a medida que las operadoras migren sus redes hacia nuevos estándares,

estos problemas irán haciéndose cada vez menos importantes, ya que, entre otras

cuestiones, las nuevas implementaciones de los estándares avanzan incorporan-

do parámetros de Calidad de Servicio con los que priorizar las comunicaciones de

uno u otro usuario.

Visto el potencial de la Unidad Móvil Virtual para el sector audiovisual, podría

plantearse la utilización de diversas tecnologías inalámbricas, especialmente Wi-

MAX y la utilización de distintas capas de calidad mediante H.264/Scalable Video

Coding. No obstante, si bien es posible introducir mejoras en la compresión de

69

Page 71: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 8. CONCLUSIONES 70

vídeo, dar el salto a otra tecnología inalámbrica supone un problema en lugares

donde no existan operadores de dicha tecnología. En nuestro caso, las pruebas

realizadas con WiMAX en España se reducen a un número pequeño de zonas de

cobertura, ofreciéndose principalmente servicios básicos de conexión a Internet

como alternativa a las líneas ADSL.

Finalmente, y como línea futura de trabajo, sería interesante comprobar el

comportamiento de la transmisión durante los traspasos entre celdas, mostrando

qué efectos tiene la movilidad en los resultados, y qué medidas se pueden adoptar

para paliarlos.

Page 72: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

Agradecimientos

La elaboración de este proyecto fin de carrera se ha convertido en algo muy

diferente de lo que había imaginado desde que comencé los estudios de Ingenie-

ro de Telecomunicación. Como para muchos de mis compañeros de promoción,

mi intención era aprobar la carrera cuanto antes, obtener mi título y empezar a

trabajar en alguna empresa que me permitera vivir de manera holgada. Y ahora

estoy escribiendo la memoria de un proyecto fin de carrera en el que he trabaja-

do a lo largo de más de un año, que me ha permitido descubrir que hay opciones

laborales que pueden resultar más atractivas que las que a priori me llamaban.

Aunque inicialmente veía el proyecto fin de carrera como el final de una etapa

de aprendizaje y el principio de otra en la que poner en práctica los conocimien-

tos; ahora veo este proyecto como el punto inicial de una fase más ambiciosa de

conocimiento e investigación, para el que los estudios reglados no eran más que

los preparativos necesarios antes de emprender un nuevo y apasionante viaje.

Este cambio de visión acerca de lo que supone el título de Ingeniero de Teleco-

municación no habría sido posible sin los amigos, compañeros y profesores que

he encontrado en el Departamento de Teoría de la Señal y Comunicaciones.

Mientras me esforzaba para completar estos estudios, muchas son las perso-

nas que se han cruzado en mi camino que me han dejado un grato recuerdo en

algunos casos, y en otros una más que grata relación de amistad.

Otras personas, mi familia, me han acompañado durante todo este trayecto y

han estado siempre ahí para apoyarme cuando un examen no salía del todo bien

y para celebrar los que salían mejor de lo esperado.

Y también durante el tiempo que me ha llevado finalizar estos estudios he co-

71

Page 73: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

CAPÍTULO 8. CONCLUSIONES 72

nocido a una persona que no sólo se ha cruzado en mi camino sino que me acom-

paña en el que tengo por delante, y que espero recorramos juntos durante mucho

tiempo.

No quisiera tampoco olvidar el apoyo institucional que he tenido a la hora de

realizar este proyecto, financiado por la Consejería de Innovación, Ciencia y Em-

presa de la Junta de Andalucía, en el Marco del Proyecto Minerva.

A todos ellos les dedico este trabajo de manera muy especial, y les agradezco

su cariño, amistad y ayuda.

Page 74: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

Bibliografía

[1] Keith Jack. Video demystified: a handbook for the digital engineer. Elsevier,

2007.

[2] Khalid Sayood. Introduction to data compression. Elsevier, 2006.

[3] Barry G. Haskell. Digital video: an introduction to MPEG-2. Chapman & Hall

: International Thomson Pub, 1997.

[4] ISO/IEC 11172:1993. Coding of moving pictures and associated audio for di-

gital storage media at up to 1.5 Mbit/s. ISO, Ginebra, Suiza.

[5] ISO/IEC 13818:2000. Generic coding of moving pictures and associated audio

information. ISO, Ginebra, Suiza.

[6] ISO/IEC 3818:1996. Generic coding of moving pictures and associated audio

information. ISO, Ginebra, Suiza.

[7] S. . Kwon, A. Tamhankar, and K. R. Rao. Overview of h.264/mpeg-4 part 10.

Journal of Visual Communication and Image Representation, 17(2):186–216,

2006.

[8] T. Wiegand, H. Schwarz, A. Joch, F. Kossentini, and G. J. Sullivan. Rate-

constrained coder control and comparison of video coding standards. IEEE

Transactions on Circuits and Systems for Video Technology, 13(7):688–703,

2003.

73

Page 75: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

BIBLIOGRAFÍA 74

[9] P. Stuckmann. Quality of service management in gprs-based radio access net-

works. Telecommunication Systems, 19(3-4):515–546, 2002.

[10] Papaoulakis N. Nikitopoulos D. Gkroustiotis E. Kechagias C. Karambalis C.

Karetsos G. Kyriazakos, S. Performance evaluation of gsm and gprs systems

based on measurement campaigns and statistical analysis. Conference Record

/ IEEE Global Telecommunications Conference, 2:1522–1526, 2002.

[11] A. Samjani. General packet radio service (gprs). IEEE Potentials, 21(2):12–15,

2002.

[12] G. Brasche and B. Walke. Concepts, services, and protocols of the new gsm

phase 2+ general packet radio service. IEEE Communications Magazine,

35(8):94–104, 1997.

[13] Heikki Kaaranen, Ari Ahtiainen, Lauri Laitinen, Siamäk Naghian, and Valtteri

Niemi. Redes UMTS. Arquitectura, movilidad y Servicios. Ra-Ma, 2006.

[14] Harri Holma and Antti Toskala, editors. WCDMA for UMTS, HSPA evolution

and LTE. John Wiley & Sons, 2007.

[15] Loutfi Nuaymi. WiMAX. Technology for Broadband Wireless Access. John Wi-

ley & Sons, 2007.

[16] Clint Smith and John Meyer. 3G Wireless with WiMAX and Wi-Fi. McGraw-

Hill Professional Engineering, 2004.

[17] S. Park and S. . Jeong. Mobile iptv: Approaches, challenges, standards, and

qos support. IEEE Internet Computing, 13(3):23–31, 2009.

[18] A. Q. Mohammed, R. Ahmad, S. K. Mohd, and T. Ahmad. Real time video

streaming over heterogeneous networks. volume 2, pages 1117–1122, 2009.

[19] Ye X.-Z. Zhang S.-Y. Zhang Y. Liu, L. H.264/avc error resilience tools suita-

ble for 3g mobile video services. Journal of Zhejiang University: Science, 6

A(SUPPL.):41–46, 2005.

[20] Zhang S.-Ye X. Zhang-Y. Liu, L. Error resilience schemes of h.264/avc for 3g

conversational video services. volume 2005, pages 657–661, 2005.

[21] Bing-J. Zhu-Wei-L. Ping Y. Zi-Jiang H. Xue-Wu, Z. End-to-end delivery strate-

gies for h.264 video streaming over 3g wireless networks. Number 525, page

333, 2006.

Page 76: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

BIBLIOGRAFÍA 75

[22] Nasiopoulos P.-Leung V.C.M.-Fallah-Y.P. Connie, A.T. Video packetization te-

chniques for enhancing h.264 video transmission over 3g networks. pages

800–804, 2008.

[23] Lo-H.-F.-Lee-W.-T. Chiang, J.-C. Scalable video coding of h.264/avc video

streaming with qos-based active dropping in 802.16e networks. pages 1450–

1455, 2008.

[24] Stockhammer T.-Wiegand-T. Schierl, T. Mobile video transmission using sca-

lable video coding. IEEE Transactions on Circuits and Systems for Video Tech-

nology, 17(9):1204–1217, 2007.

[25] Weihua Z.-Jiang-H. Ruobin, Z. Scalable multiple description coding and dis-

tributed video streaming in 3g mobile communications. Wireless Communi-

cations and Mobile Computing, 5(1):95–111, 2005.

[26] Oguz Sunay-M. Atici, Ç. High data-rate video broadcasting over 3g wireless

systems. IEEE Transactions on Broadcasting, 53(1):212–223, 2007.

[27] Hellge C.-Mirta-S.-Grüneberg-K.-Wiegand T. Schierl, T. Using h.264/avc-

based scalable video coding (svc) for real time streaming in wireless ip net-

works. pages 3455–3458, 2007.

[28] Verscheure O. Frossard, P. Amisp: A complete content-based mpeg-2 error-

resilient scheme. IEEE Transactions on Circuits and Systems for Video Tech-

nology, 11(9):989–998, 2001. cited By (since 1996) 29.

[29] Stuhlmüller K.-Link-M.-Girod-B. Horn, U. Robust internet video transmis-

sion based on scalable coding and unequal error protection. Signal Proces-

sing: Image Communication, 15(1):77–94, 1999. cited By (since 1996) 125.

[30] Riskin E.A.-Ladner-R.E. Mohr, A.E. Unequal loss protection: graceful degra-

dation of image quality over packet erasure channels through forward error

correction. IEEE Journal on Selected Areas in Communications, 18(6):819–

828, 2000. cited By (since 1996) 198.

[31] Mersereau R.M.-Altunbasak-Y. Kim, J. Error-resilient image and video trans-

mission over the internet using unequal error protection. IEEE Transactions

on Image Processing, 12(2):121–131, 2003. cited By (since 1996) 65.

Page 77: UNIDAD MÓVIL VIRTUAL PARA ENG SOBRE HSUPA

BIBLIOGRAFÍA 76

[32] Zhu C.-Li-Z.G.-Lin-X.-LingÑ. Yang, X. An unequal packet loss resilience sche-

me for video over the internet. IEEE Transactions on Multimedia, 7(4):753–

764, 2005. cited By (since 1996) 15.

[33] Yim C.-Kim-Y.Y. Ha, H. Packet loss resilience using unequal forward error co-

rrection assignment for video transmission over communication networks.

Computer Communications, 30(18):3676–3689, 2007.

[34] Jamaa S.B.-Kieffer-M.-Duhamel-P. Sabeva, G. Robust decoding of h.264 en-

coded video transmitted over wireless channels. pages 9–13, 2007.

[35] Mohan S. Anderson, J.B. Source and channel coding: an algorithmic ap-

proach. Kluwer Academic Publishers, Norwell MA.

[36] Choi-B.-D.-Park-C.-S. Park S.-H. Ko S.-J. Kim, H.-S. Channel adaptive error

resilience scheme for video transmission over mobile wimax. IEICE Transac-

tions on Communications, E91-B(10):3052–3059, 2008.

[37] Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli. Image quality as-

sessment: From error visibility to structural similarity. IEEE Transactions on

Image Processing, 13(4):600–612, 2004. Cited By (since 1996): 333.

[38] Feng Xiao. Dct-based video quality evaluation.

[39] A.B. Watson. Toward a perceptual video quality metric. In Human Vision,

Visual Processing and Digital Display, volume 3, pages 139–147, 1998.