historia de la computacion grafica
Post on 28-Mar-2016
254 Views
Preview:
DESCRIPTION
TRANSCRIPT
HISTÓRIA DE LA COMPUTACIÓN GRAFICA
En sus inicios las computadoras se utilizaban principalmente en aplicaciones
científicas. La ENIAC, una de las primeras computadoras, calculaba densidades
de neutrón transversales para ver si explotaría la bomba de hidrógeno. Los
resultados se reportaban por medio de dispositivos de impresión sencillos que
producían secuencias de caracteres alfanuméricos que los usuarios debían
examinar. El siguiente paso en la evolución de las computadoras fue la creación
de dispositivos de visualización que permitían al usuario de una computadora
observar los resultados del procesamiento en el dispositivo. La primera
computadora que utilizó un CRT (Tubo de Rayos Catódicos) como dispositivo de
visualización fue Whirlwind, construida en el MIT (Instituto Tecnológico de
Massachussets) en 1950 para simular vuelos de entrenamiento de los
escuadrones de bombarderos de la marina de Estados Unidos.
Figura 1: La computadora Whirlwind desarrollada en el MIT.
Durante la década de los 50 también continuó el desarrollo de los dispositivos de
entrada. El sistema para la defensa espacial SAGE, desarrollado para convertir los
sonidos de detección de un radar en imágenes, fue el primero en emplear un lápiz
óptico para seleccionar símbolos en la pantalla.
El primer videojuego de la historia fue creado en 1952, con el nombre de OXO.
Fue producto de la tesis doctoral de Alexander Sandy Douglas en la Universidad
de Cambridge para demostrar la interactividad entre computadoras y seres
humanos. El juego era una versión del conocido “tres en raya” y fue escrito para la
computadora EDSAC. Figura
Figura 2: La computadora EDSAC.
El programa podía tomar sus decisiones en función de los movimientos del
jugador, que transmitía las órdenes por medio de un dial telefónico integrado en el
sistema.
La enorme computadora EDSAC en la que se corría el juego fue la primera
computadora electrónica capaz de almacenar programas. El juego aunque tenía
un nivel de interacción solo permitía un jugador.
Figura 3: La pantalla de OXO.
En 1961 un estudiante del MIT, Steve Russell dirigió un equipo que creó el primer
videojuego interactivo de naves espaciales. Le tomó al equipo cerca de 200 horas-
hombre escribir la primera versión de Spacewar. El juego se escribió en una PDP-
1 que fue una donación de DEC al MIT esperando que en el MIT se pudiera hacer
algo trascendente con su producto.
El modo de juego de Spacewar! Involucra dos naves espaciales armadas llamadas
“la aguja” y “la cuña” intentando disparar a la otra mientras se maniobra en el flujo
gravitacional de una estrella. Cada nave tiene un número limitado de misiles y
combustible. Cada jugador controla una de las naves y debe intentar
simultáneamente disparar a la otra nave y evitar chocar con la estrella. Los
movimientos de las naves inicialmente se controlaban por medio de interruptores
de prueba en el panel frontal del equipo, con cuatro interruptores para cada
jugador.
Figura 4 a) Escena de Spacewar! Figura 4 b) DEC PDP-1
Fue en 1963 cuando se creo el primer sistema que permitía la manipulación
directa de objetos gráficos y fue el precursor de los sistemas modernos de gráficos
por computadora y los programas de diseño asistido por computadora (CAD). El
sistema, creado para aplicaciones de diseño e ingeniería fue desarrollado por Ivan
Sutherland como trabajo de tesis doctoral en el MIT. El sistema permitía a los
usuarios dibujar puntos, segmentos de líneas rectas y arcos circulares
directamente sobre la pantalla mediante un lápiz óptico.
Figura 5: El Sketchpad permitía dibujar objetos con un lápiz óptico mediante una
indicación en la pantalla.
El sistema de Sutherland, llamado Sketchpad se basaba en la “interfaz” del TX-2,
una de las primeras computadoras que por medio de una especie de lápiz de luz y
una serie de interruptores permitía introducir formas a la computadora.
“El Sketchpad inventado por Ivan Sutherland fue el primer sistema interactivo de
gráficos por computadora utilizado para aplicaciones de diseño e ingeniería”
En 1966 Sutherland, ejerciendo como profesor en Harvard, junto con Bob Sproull
fue el primero en implementar un sistema de realidad virtual, a través del cual, con
la ayuda de un casco, los usuarios podían ingresar virtualmente en una habitación
y mirar en todas direcciones una vez adentro.
Los inventos de Ivan Sutherland contribuyeron al desarrollo de las interfaces
gráficas de usuario que actualmente son una parte indispensable en cualquier
sistema de cómputo.
Muchas de las ideas demostradas por primera vez en el Sketchpad ahora son
parte de entornos de computadoras usadas por millones en aplicaciones de
investigación científica, negocios y recreación. Estas ideas incluyen:
En el ámbito del hardware, los CRT utilizados hasta entonces podían
El concepto de estructura jerárquica interna de una imagen representada por
computadora y la definición de esa imagen en términos de sub-imágenes.
• El concepto de imagen maestra e instancias de imagen las cuales son
versiones transformadas de la imagen maestra.
• El concepto de restricción como un método para especificar detalles de la
geometría de una imagen.
• La habilidad para desplegar y manipular representaciones icónicas de las
restricciones.
• La habilidad de copiar así como crear instancias tanto de imágenes como
restricciones.
• Algunas técnicas elegantes para la construcción de imágenes usando un lápiz
luminoso.
• La separación del sistema de coordenadas en el cual una imagen es definida
a partir de lo que es desplegado; y
• Operaciones recursivas tales como “mover” y “borrar” aplicadas a las
imágenes definidas jerárquicamente.
Trazar líneas rectas entre dos puntos en la pantalla, pero ya que las líneas
dibujadas se desvanecían en la pantalla, era necesario redibujarlas varias veces
por segundo, lo que solo era posible por medio de dispositivos muy costosos de
hardware. Estos dispositivos se denominaban pantallas de vector, de trazo o
caligráficas. El primer dispositivo de este tipo fue introducido al mercado por IBM
en 1965.
En 1968 Tektronix introdujo un CRT con tubo de almacenamiento que permitía
retener permanentemente un dibujo hasta que el usuario decidiera borrarlo. Este
sistema eliminó la necesidad de utilizar costosos sistemas especiales de hardware
y memoria para redibujado. Aunque su precio era más accesible no dejaba de ser
elevado. Sus modelos 601 y 611 fueron los primeros en su línea de productos
diseñados especialmente para gráficos por computadora. El primer modelo
comercial de Tektronix fue el 4002A con un precio aproximado de 9000 dólares.
Figura 6: Monitor con tubo de
almacenamiento de despliegue directo Tektronix 4002A
En 1970 un estudiante de nombre Edwin Catmull iniciaba sus estudios en la
Universidad de Utah, inscribiéndose a la clase de gráficos por computadora de
Sutherland. Habiendo crecido con los dibujos animados de Disney, Catmull amaba
la animación aunque rápidamente descubrió que no tenía talento para dibujar.
Pero Catmull, al igual que otros, vio las computadoras como la evolución natural
de la animación y quería ser parte de esa revolución. La primera animación por
computadora que Catmull vio fue de si mismo. El creó una animación de su mano
abriéndose y cerrándose. Se volvió uno de sus objetivos crear una película entera
usando gráficos por computadora. En la misma clase Fred Parke creó una
animación del rostro de su esposa.
Figura 7: Rostro digital creado por Fred Parke
Con la presencia de Sutherland que fue reclutado por Dave Evans para el
programa de ciencia computacional en la Universidad de Utah, esta comenzó a
ganar reputación como lugar para la investigación de gráficos computacionales, de
modo que Catmull acudió ahí para aprender sobre gráficos 3D.
De ese modo el laboratorio de gráficos por computadora de la Universidad de Utah
atrajo gente de todas partes, John Warnock fue uno de esos pioneros; mas tarde
fundaría Adobe Systems y crearía una revolución en el mundo de la publicación
con su lenguaje de descripción de páginas PostScript. Tom Stockham dirigió el
grupo de procesamiento de imagen en Utah que trabajó estrechamente con el
laboratorio de gráficos por computadora. Jim Clark también estuvo ahí; después
fundaría Silicon Graphics Inc.
El mayor de los primeros avances en gráficos por computadora tridimensionales
fue creado por esos pioneros, el algoritmo de superficie oculta. Para dibujar la
representación tridimensional de un objeto en la pantalla, la computadora debe
determinar cuales superficies están “detrás” del objeto desde la perspectiva del
observador, y de ese modo serían “escondidas” cuando la computadora crea (o
renderiza) la imagen.
A partir de 1970 se comenzaron a introducir los gráficos por computadora en el
mundo de la televisión. Computer Image Corporation (CIC) desarrollo sistemas
complejos de hardware y software como ANIMAC, SCANIMATE y CAESAR.
Todos esos sistemas funcionaban escaneando una imagen existente, para
después manipularla, aplastándola, estirándola, girándola y haciéndola volar por la
pantalla, etc.… Bell Telephone y CBS Sports fueron unos de los muchos que
empezaron a usar los nuevos gráficos por computadora.
Figura 8: Sistema SCANIMATE para procesamiento por computadora de
imágenes para TV.
Figura 9:
Primeros sistemas para la generación de personajes animados por computadora.
Uno de los mas importantes avances para los gráficos por computadora apareció
en escena en 1971, el microprocesador. Usando tecnología de circuitos integrados
desarrollada en 1959, la electrónica de un procesador de computadora fue
reducida a un único chip, el microprocesador a veces llamado CPU (Unidad
Central de Procesamiento). Una de las primeras microcomputadoras de escritorio
diseñada para uso personal fue la Altair 8800 de Micro Instrumentation Telemetry
Systems (MITS). Se entregaba por correo en forma de kit para armar, la Altair
(nombrada como un planeta en la popular serie Star Trek) se vendía alrededor de
los 400 dólares. Tiempo después las computadoras personales avanzarían hasta
punto de permitir la creación de gráficas computacionales con calidad de película.
Figura 10: Kit
para armar la Microcomputadora personal Altair 8800.
En el mismo año Nolan Kay Bushnell junto con un amigo creo el Atari. Después
de esto comenzó el desarrollo de un videojuego de arcadia llamado Pong, que se
conoció en 1972 y comenzó una industria que continúa siendo hasta hoy una de
las que mayor uso hace de los gráficos por computadora. Figura
Figura 11: El
Atari Pong de 1972.
El juego se basaba en aquel creado en 1958 por William Higinbotham, quien
programó un osciloscopio para que simulara una partida de ping-pong que
permitía la interacción entre dos jugadores. El objetivo era manejar dos líneas
móviles que interceptaban la pelota representada por un punto móvil en la pantalla
circular del osciloscopio. El juego fue llamado Tenis for two.
Figura 12 a) El
osciloscopio en el que se jugaba Tennis for two en 1958.
Figura 12 b) La pantalla del juego.
Pong poseía una menor calidad gráfica que el juego en el que se inspiraba, pero la
clave de su éxito radicaba en la ventaja de poder producirse en masa a un precio
relativamente económico convirtiéndose en uno de los videojuegos mas vendidos
de la historia.
Figura 13: Anuncio para la versión en arcadia del juego Pong de Atari en 1972.
Pero el avance de la industria no se limitaba al entretenimiento para el hogar. El
primer videojuego público y comercial de la historia fue el Galaxy Game, creado
por dos estudiantes de la Universidad de Stanford, Hill Pitts y Hugh Tuck, quienes
reprogramaron la versión original del juego Spacewar de Stephen Russell. La
máquina fue instalada en Tresidder Memorial Union, una tienda dentro del
complejo del campus en la Universidad. Oficialmente la primer máquina de
videojuegos para obtener ganancias económicas en ser colocada en un sitio
público y que poseía un mecanismo para recaudar monedas de 5 centavos. Fue
arrollador el éxito de la máquina, con colas interminable para disfrutar del juego
por unos minutos.
Figura 14: Galaxy Game en el Museo de Computación de Stanford.
Después del éxito de Galaxy Game comenzaron a producirse otras máquinas en
serie, la primera fue Computer Space, otra variación del juego Spacewar y que
automáticamente se convirtió en el detonante de la comercialización masiva de los
videojuegos, abandonando el ambiente experimental que hasta entonces había
rodeado a los avances en ese campo.
Tanto en la industria de los videojuegos y entretenimiento como en las
aplicaciones científicas se presentaron avances con gran rapidez. Durante la
década de los 70’s Don Greenberg de la Universidad de Cornell creó un
laboratorio de gráficos por computadora que produjo nuevos métodos de
simulación realista de superficies. El programa de gráficos por computadora de
Cornell es bien conocido por sus trabajos en síntesis de imágenes realistas,
incluyendo el método de radiosidad para el cálculo de iluminación directa e
indirecta en escenas sintéticas. El objetivo del laboratorio a largo plazo es
desarrollar modelos de iluminación basados en física y procedimientos de
renderizado preceptúales que sean visual y cuantificablemente indistinguibles de
imágenes del mundo real. Su trabajo ha generado muchas de las más notables
capacidades de iluminación en el software comercial.
“Desde su fundación, el laboratorio de Cornell ha articulado y refinado un
sistema para investigación en iluminación global incorporando modelos de
reflexión, simulación de transporte de energía y algoritmos de despliegue
visual”.
Figura 15: Escena de Cornell en perspectiva.
En la conferencia SIGGRAPH de 1980 fue mostrada una impactante película
titulada “Vol Libre”. Se trataba de un vuelo de alta velocidad a través de montañas
fractales generadas por computadora. El programador de nombre Loren Carpenter
de la compañía Boeing en Seattle, Washington había estudiado y modificado la
investigación de Mandelbrot para simular montañas fractales realistas.
Carpenter había estado trabajando en el departamento de servicios de cómputo
de Boeing desde 1966 y era estudiante en la Universidad de Washington.
Eventualmente trabajó con un grupo en Boeing en un sistema de dibujo asistido
por computadora. Esto finalmente le dio acceso al equipo de gráficos por
computadora. Trabajando ahí con otros empleados, desarrolló varios algoritmos
de renderizado y publicó artículos sobre ellos.
Figura 16: Escena de la película de animación Vol Libre.
A finales de los 70’s Carpenter había construido modelos en 3D de diseños de
aeroplanos y quería algunos escenarios para usarlos. Así que leyó el libro de
Mandelbrot y de inmediato se decepcionó cuando encontró que las fórmulas no
eran prácticas para lo que el tenía en mente. En esa época se había estrenado
Star Wars y siendo gran fan de la imaginación Carpenter soñó con crear algún tipo
de paisaje extraterrestre. Esto lo condujo a hacerlo realmente; para 1979 tenía una
idea de cómo crear un terreno fractal en animación.
Durante un viaje de negocios al estado de Ohio en 1979, Carpenter encontró a
una persona que conocía bastante gente en el campo de los gráficos por
computadora, gente como Ed Catmull. Él le explicó como Catmull había sido
contratado por George Lucas para montar un laboratorio en Lucasfilm. Carpenter
se interesó inmediatamente pero no quería mandar su currículo aún, porque
todavía estaba trabajando en su película de la montaña fractal.
Carpenter continuó trabajando, quería demostrar no solo que esas imágenes
fractales lucían bien, sino que además podían animarse bien. Lo logró después de
resolver varias dificultades técnicas y su película estuvo lista para presentarse en
SIGGRAPH 1980. Quería llamar la atención tanto como fuera posible ya que
deseaba trabajar en Lucasfilm. Al término de la película fue contratado por la
gente de Lucasfilm que era parte de la audiencia. Mas tarde, en 1981 Carpenter
escribió su primer programa de rendering para Lucasfilm, llamado REYES
(Renders Everything You Ever Saw). REYES eventualmente formaría parte del
motor de Renderizado Renderman y actualmente, Carpenter aún está con Pixar.
En 1986 se formó Pixar cuando la división de gráficos por computadora de
Lucasfilm fue adquirida por Steven Jobs. El equipo pionero de la compañía
formado por John Lasseter, Ed Catmull y Ralph Guggenheim produjo el famoso
software Renderman.
“Renderman Interface Specification, o RISpec, es un API desarrollada por los
estudios de animación Pixarpara describir escenas tridimensionales y
convertirlas en imágenes digitales foto realistas.”
Figura 17: Escena generada con Renderman para la película “The Abyss” de
1989.
Terminator 2 fue estrenada en 1991 e impuso un nuevo estándar para los efectos
con imágenes generadas por computadora (CGI). El robot maligno T-1000 en T2
fue alternado entre el actor Robert Patrick y una versión animada computarizada
en 3D de Patrick.
Figura 18: Escena de la película Terminator 2 de 1991.
El verano de 1994 trajo toda una gama de películas llenas de gráficos por
computadora. Algunos efectos sin embargo, eran tan fotorealistas que el uso de la
computadora era indetectable. Por ejemplo en la película Forrest Gump, los
artistas usaron composición digital, sobreponiendo distintas secuencias de video
una encima de otra, produciendo la ilusión de que el actor Tom Hanks estaba en la
misma escena con algunos famosos politicos americanos como John F. Kennedy.
También usaron técnicas de edición estándar de imágenes para “cortar” las
piernas de un actor que interpreta el papel de un soldado herido que perdió sus
piernas en la guerra. Simplemente lo hicieron usar calcetines largos de color azul.
De ese modo después de que la grabación fue escaneada en la computadora, el
artista usó el software Parallax para copiar porciones del escenario de fondo sobre
los calcetines azules en cada cuadro. El resultado es que Tom Hanks carga al
actor fuera de la cama y se ve como si este realmente no tuviera piernas.
Figura 19: Efecto especial usado en la película Forrest Gump de 1994.
En 1995 se presentó la primera película de larga duración con gráficos y
animaciones 3D por computadora. La película realizada por Pixar fue llamada Toy
Story. La película no presentó mejoras revolucionarias, sin embargo solo por ser
una película de larga duración tuvo un gran impacto en la manera en que la gente
percibía los gráficos por computadora.
Para 1995 las audiencias de todo el mundo estaban acostumbradas a ver
asombrosos gráficos en películas, pero hubo otra revolución de gráficos, que
comenzó ese año. Sony lanzó al mercado mundial su consola de juegos
Playstation (X). Hasta entonces las llamadas consolas de videojuegos solamente
podían manejar gráficos 2D, pero el Playstation contenía un chip (además del
CPU) de 3D acelerado por hardware capaz de dibujar 360,000 polígonos por
segundo.
Figura20: Playstation de Sony
1996 podrá no ser el año más excitante en el uso de CGI en películas, pero la
industria de los videojuegos experimentó un gran avance en los gráficos 3D con la
salida de Quake de ID Software. 3D acelerado por hardware se convirtió en la
frase de moda y al menos dos fabricantes sacaron al mercado aceleradores
gráficos para PC (Diamond Edge de Diamond Multimedia usando el procesador
NV1 de nVidia, y Virge de S3). Sin embargo los aceleradores de esta primera
generación fueron prácticamente inútiles. Quake nunca los requirió y aún cuando
los usara, los aceleradores ofrecían un pobre desempeño.
En 1997 la industria de los videojuegos experimentó de nuevo una revolución, esta
vez fue el acelerador 3DFX Voodoo 3D. Este chip 3D aplastó por completo a la
competencia con su increíble y extremadamente práctico desempeño en 3D. Este
era el momento de cambio para los gráficos 3D acelerados por hardware.
Después de Voodoo no hubo vuelta atrás. 1997 también vio la llegada de Quake
2. Los beneficios de un buen acelerador 3D fueron obvios y el lema fue: “Si
quieres jugar juegos geniales, tendrás que comprar un acelerador 3D”.
1999 fue probablemente el año más excitante para los videojugadores de todo el
mundo. nVidia finalmente logró superar el desempeño de 3DFX en la batalla de
los chips 3D con su procesador TNT2. Ni siquiera la Voodoo 3 podría igualar al
chip TNT2 (y TNT2 Ultra). Pero nVidia no se detuvo ahí. En octubre sacaron a la
venta el primer GPU (Unidad Gráfica de Procesamiento) para consumidor del
mundo, la GeForce256. La GeForce (nombre código nv10) fue la primera tarjeta
3D que poseía un motor de hardware llamado Transform & Lighting. Ninguno de
los títulos lanzados en 1999 soportaba esta opción con la excepción de Quake III,
el cual salió a la venta en diciembre. La GeForce 256 podía renderizar triángulos
con soporte de T&L en hardware, todo esto capaz de trabajar en conjunto con un
rendimiento igual o mayor a 10 millones de polígonos por segundo.
Figura 21: Escena del juego Quake III Arena de 1999
El año 2000 fue realmente “el año de nVidia“. En diciembre, nVidia adquirió los
activos intelectuales de su alguna vez competidor 3DFX. Este es un buen
recordatorio de que tan rápido cambian las cosas en la industria. ATI se estaba
volviendo fuerte y Matrox había anunciado nuevos productos, pero sobre todos
ellos, claramente nVidia se había convertido en el estándar para el cómputo en
casa. En el 2001 nVidia continuó dominando el mercado con una competencia
ocasional por parte de ATI.
Nintendo lanzó el Gamecube en septiembre de 2001, al igual que el Gameboy
Advance. Pero probablemente el gran evento del 2001 fue el lanzamiento de la
consola Xbox de Microsoft. Con un procesador gráfico desarrollado por nVidia,
disco duro, CPU Intel y más, fue diseñada para ganarles a sus principales
competidores que serían el Playstation 2 y el Gamecube de Nintendo. El alguna
vez tan influyente SEGA había dejado el negocio del hardware y ahora se
concentraba en el software.
El mundo de la cinematografía también se vio beneficiado con estos avances y se
puede ver en películas como Final Fantasy: The Spirits Within, tal vez el primer
intento verdadero por crear humanos realistas en una película completamente
generada por computadora.
Figura 22: Escena de Final Fantasy: The Spirits Within, con personajes
completamente generados por computadora.
Jurassic Park triunfó de nuevo, por supuesto, con dinosaurios tan reales que
incluso un artista gráfico podría sentarse a disfrutar la película sin pensar acerca
de los efectos especiales. La película A.I. presentó efectos especiales
extremadamente bien producidos, pero que fueron la simple evolución de las
técnicas creadas para Terminator 2. La gran película del año fue Lord Of The
Rings, presentando algunas escenas sorprendentes.
Durante 2003 aparecieron varias secuelas cinematográficas con grandes efectos
especiales. X-Men 2, Matrix 2 y Terminator 3 son solo algunos ejemplos. Matrix
Revolutions presentó una gran cantidad de asombrosos efectos especiales.
El 2004 fue un buen año para los videojuegos. Algunos de los juegos que
aparecieron ese año como FarCry de Ubisoft fueron de los primeros juegos en
utilizar los últimos avances en los gráficos por computadora como los shaders de
Direct X 9.0. El segundo gran juego fue Doom 3, la secuela de la legendaria y
revolucionaria serie de Doom. Aunque el juego no fue del completo gusto de
todos, nadie puede negar la calidad gráfica que se conseguía con el uso de
iluminación dinámica, sombras y el sonido surround.
Hacia finales del año llegó el juego posiblemente mas esperado de todos los
tiempos, Half-Life 2. Habiéndose desarrollado durante seis años el juego
presentaba gráficos increíblemente realistas y creaba toda una nueva dimensión
en el modo de juego con su cuidadosamente implementado motor de física.
Para la película Spider-Man 3 de 2007 Sony Pictures Imageworks (SPI) usó el
software Autodesk Maya para la animación en 3D, el modelado, texturizado y
combinación de movimientos de los personajes y efectos visuales
aproximadamente en 80% de las tomas realizadas por el estudio. Se usó el
sistema de efectos visuales Autodesk Flame para hacer cambios en el rostro de
los personajes y para integrar tomas reales de ellos en ambientes generados
totalmente por computadora. El uso de ese software también fue decisivo para
crear la secuencia extremadamente compleja de Sandman y la sustancia
simbiótica de Venom.
Figura 23: Efectos especiales de Spider-Man 3 generados con el software de
Autodesk.
QUE ES LA COMPUTACION GRAFICA
La computación gráfica es la rama de las ciencias de la computación que se
encarga del estudio, diseño y trabajo del despliegue de imágenes en la pantalla de
un computador a través de las herramientas proporcionadas por la física, la óptica,
la térmica, la geometría, etc.
Computación gráfica estudia los conceptos y algoritmos relacionados con la
edición y producción de gráficas por computador.
Gráficos de arreglos bidimensionales de bits. Gráficos de orientación a objetos.
Transformaciones geométricas bidimensionales. Tipos de gráficos. Métodos de
despliegue tridimensional. Técnicas de modelaje procedurales.
Aplicaciones de la Computación Gráfica
Actualmente existen muchas aplicaciones, en diversos campos de la ingeniería e
investigación científica, que demandan una gran cantidad de recursos
computacionales. La Computación Gráfica cubre áreas muy diversas, que abarcan
desde la visualización científica o ingenieril hasta el arte y el tratamiento
fotográfico.
· Interfaces Gráficas de Usuario (GUI: Graphical User Interface)
· Gráficos estadísticos
· Cartografía
· Medicina
· Diseño Asistido por Computadora (CAD: Computer-Aided Design)
· Multimedios (educativos)
· Entretenimiento (juegos)
· Arte
Términos comunes
Bit: Unidad de medida elemental de la memoria. Puede tener dos valores: cero y
uno.
Píxel: Contracción de picture element, unidad de medida elemental de una
imagen.
Resolución: Tamaño de una imagen, expresado en cantidad de píxeles
horizontales por cantidad de píxeles verticales. Ejemplos de resoluciones de
pantalla comunes: 640x480; 800x600; 1024x768.
Profundidad de color: Cantidad de colores que pueden ser usados en una
imagen. Depende de la cantidad de bits por píxel; cuantos más se utilicen, mayor
será la cantidad de combinaciones de valores binarios (ceros y unos) que forman
la paleta de colores posibles. Profundidades de color comunes: 1 bit, 8 bits, 16
bits, 24 bits y 32 bits por píxel.
Dithering: Técnica de aproximación de color utilizada para la compresión de
imágenes o en caso de que la paleta de colores de una imagen no incluya cierto
color específico. En este caso, se combinan unos cuantos píxeles con colores de
la paleta, que juntos dan la ilusión de presentar el color que falta (dither: temblor,
agitación).
Jaggy: Efecto “de escalerita” que se ve en una imagen o en un texto de la
pantalla, a consecuencia de que con la tecnología de despliegue de barrido no se
puedan dibujar curvas perfectas. Los pixels no son curvos, pero tienen que dibujar
curvas (jagged: dentado).
Anti-aliasing: Técnica de suavizado de curvas que se usa para contrarrestar el
efecto “jaggy”. Usualmente se mezclan los colores de los píxeles que forman los
bordes encurvados. Como resultado se obtiene una imagen que parece
desenfocada pero, aunque suene contradictorio, se ve bastante más clara.
Animación: Secuencia de imágenes que da la ilusión de movimiento.
Patrón de color: Formato específico de medición de colores que se utiliza para
representar los colores de una imagen.
CMYK: Patrón de color utilizado en las imprentas que mediante una combinación
de cuatro colores únicos se puede obtener cualquier otro color. Cada letra de su
nombre representa uno de esos colores: cyan, magenta, yellow (amarillo)
y black (negro).
RGB: Patrón de color utilizado en televisores, monitores y otros dispositivos de
despliegue similares que se basa en una combinación de tonalidades de rojo,
verde y azul (red, green, blue) para obtener cualquier color. Cada tonalidad tiene
un valor que va de 0 a 255. Cuando la tonalidad es la misma en los tres casos, se
obtiene luz blanca.
Tipos de imagen
Una imagen de computadora puede pertenecer a uno de los siguientes tipos:
· Bitmap: (Mapa de bits) Cuando la imagen está formada por una matriz de
puntos (píxeles) cada uno de ellos compuesto de uno o más bits.
· Vectorial: Cuando la imagen está formada por elementos tales como rectas,
puntos y curvas, cuyo tamaño y disposición varía de acuerdo a fórmulas y
coordenadas específicas.
Las fotografías digitales son imágenes del tipo bitmap, como así también la
mayoría de los gráficos que se usan en páginas web. Tienen la desventaja de que
al modificarse su tamaño, generalmente se pierde la calidad. Por el contrario, las
dimensiones de una imagen del tipo vectorial pueden modificarse sin por ello
perder la calidad del tamaño original.
Formatos de archivos gráficos más conocidos
Un formato de archivo gráfico es el modelo que se usa para almacenar la
información de una imagen en un archivo. Para usar una imagen en un programa
de aplicación, éste debe reconocer la estructura del archivo donde se encuentra
almacenada la imagen, es decir, la aplicación debe soportar el formato del archivo.
Existe una gran cantidad de formatos de archivos para gráficos, algunos de los
cuales ya se encuentran en desuso. Entre los más utilizados hoy en día podemos
mencionar a los siguientes:
top related