capítulo 2 - el software toma el mando (manovich)

36
Manovich. Capítulo 2 – El Software Toma el Mando 1 / 36 Capítulo 2. Para entender los metamedios 1 Lev Manovich “[el libro electrónico] no debe ser visto como una simulación del libro de papel porque se trata de una nuevo medio con nuevas propiedades”. Kay & Goldberg, “Personal Dynamic Media,” 1977. Hoy, Popular Science, editada por Bonnier, la más grande revista de ciencia y tecnología del mundo, lanzó Popular Science+ (la primera revista en la plataforma Mag+, disponible para el iPad a partir de mañana)… Lo que me emociona es que no se siente como si usáramos un sitio Web, o un lector de las nuevas tableta portátiles sino que, técnicamente, es lo que es. Se siente como leer una revista. Popular Science+, publicado el 2 de abril, 2010. http://berglondon.com/blog/2010/04/02/popularscienceplus/ Los componentes básicos Empecé a construir este libro en 2007. Hoy es 3 de abril de 2010 y estoy escribiendo este capítulo. Hoy es también un día importante para la historia de la computación de medios (que empieza exactamente 40 años antes con Sketchpad, de Ivan Sutherland): Apple lanzó a la venta en EUA su nueva tableta iPad. Durante el tiempo en que he estado trabajando en este libro, muchos desarrollos han hecho más real la visión de Kay, la computadora como primer metamedio, pero también la han hecho más distante. La dramática reducción de precios de laptops y el surgimiento de tabletas baratas ha acercado la computación de medios a más y más personas (aunado al continuo incremento de capacidades y bajo costo de dispositivos electrónicos: cámaras digitales, video cámaras, pantallas, discos duros, etc.). Con el precio de una notebook 10 ó 20 menor que una TV digital, el argumento de la “brecha digital” de los 90s se ha vuelto menos relevante. Se ha vuelto más económico crear tus propios medio que consumir programas profesionales de TV vía los modos estándares de la industria de masas. Cada vez hay más estudiantes, diseñadores y artistas que aprenden Processing y otros lenguajes de script y programación adaptados a sus necesidades (lo que hace del arte y diseño con software algo más familiar). Quizá, aún más importante, muchos teléfonos portátiles se volvieron “teléfonos inteligentes” o “smart phones”, con acceso a Internet, navegación Web, email, cámara de foto y video y demás capacidades de creación de medios (incluyendo nuevas plataformas para el desarrollo de software). 1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

Upload: everardo-reyes-garcia

Post on 24-Oct-2015

851 views

Category:

Documents


7 download

DESCRIPTION

Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamenteintenciones educativas, artísticas y científicas.

TRANSCRIPT

Page 1: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 1 / 36

Capítulo 2. Para entender los metamedios1

Lev Manovich

“[el libro electrónico] no debe ser visto como una simulación del libro de papel porque se trata de una

nuevo medio con nuevas propiedades”.

Kay & Goldberg, “Personal Dynamic Media,” 1977.

Hoy, Popular Science, editada por Bonnier, la más grande revista de ciencia y tecnología del mundo,

lanzó Popular Science+ (la primera revista en la plataforma Mag+, disponible para el iPad a partir de

mañana)… Lo que me emociona es que no se siente como si usáramos un sitio Web, o un lector de

las nuevas tableta portátiles sino que, técnicamente, es lo que es. Se siente como leer una revista.

Popular Science+, publicado el 2 de abril, 2010.

http://berglondon.com/blog/2010/04/02/popularscienceplus/

Los componentes básicos

Empecé a construir este libro en 2007. Hoy es 3 de abril de 2010 y estoy escribiendo este capítulo.

Hoy es también un día importante para la historia de la computación de medios (que empieza

exactamente 40 años antes con Sketchpad, de Ivan Sutherland): Apple lanzó a la venta en EUA su

nueva tableta iPad. Durante el tiempo en que he estado trabajando en este libro, muchos desarrollos

han hecho más real la visión de Kay, la computadora como primer metamedio, pero también la han

hecho más distante.

La dramática reducción de precios de laptops y el surgimiento de tabletas baratas ha acercado la

computación de medios a más y más personas (aunado al continuo incremento de capacidades y bajo

costo de dispositivos electrónicos: cámaras digitales, video cámaras, pantallas, discos duros, etc.).

Con el precio de una notebook 10 ó 20 menor que una TV digital, el argumento de la “brecha digital”

de los 90s se ha vuelto menos relevante. Se ha vuelto más económico crear tus propios medio que

consumir programas profesionales de TV vía los modos estándares de la industria de masas. Cada

vez hay más estudiantes, diseñadores y artistas que aprenden Processing y otros lenguajes de script y

programación adaptados a sus necesidades (lo que hace del arte y diseño con software algo más

familiar). Quizá, aún más importante, muchos teléfonos portátiles se volvieron “teléfonos inteligentes”

o “smart phones”, con acceso a Internet, navegación Web, email, cámara de foto y video y demás

capacidades de creación de medios (incluyendo nuevas plataformas para el desarrollo de software).

1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

Page 2: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 2 / 36

Por ejemplo, el iPhone de Apple salío a la venta el 29 de junio de 2007; el 10 de julio, cuando abrió la

App Store, ya habían casi 500 aplicaciones desarrolladas por terceras personas. Según las

estadísticas de Apple, el 20 de marzo de 2010 la tienda llegó a 150 mil aplicaciones diferentes y el

número total de apps descargadas ascendía a 3 mil millones. En febrero 2012, el número de apps

iOS llegó a 500 mil (sin considerar todas aquellas que Apple rechaza diariamente), y las descargas

totales fueron 25 mil millones2.

Al mismo tiempo, algunos de los mismos desarrollos fortalecieron una visión diferente de la

computación de medios (la computadora como aparato para comprar y consumir medios

profesionales, organizar archivos de medios personales y uso de GUI para creación y producción de

medios) pero no para crear e imaginar “medio aún no inventados”. Las primer computadora Mac

introducida en 1984 no permitía escribir nuevos programas para sacar provecho de sus capacidades

mediáticas. La adopción de la interfaz GUI en todas las aplicaciones PC, por parte de la industria del

software, hizo que las computadoras fueran fáciles de usar pero también dejó sin sentido el hecho de

aprender a programar. En los 2000, el nuevo paradigma de Apple de la computadora como “centro de

medios” (una plataforma para gestionar todos los medios creados personalmente) borró la parte

“computacional” de la PC. En la siguiente década, el surgimiento gradual de canales de distribución

profesionales basados en el Web, como la Apple iTunes Store (2003), TV por Internet (en EUA, Hulu

salió al mercado el 12 de marzo de 2008), tiendas de e-book (Random House y Harper Collins

empezaron a vender libros digitales en 2002) y la Apple iBook Store (3 de abril de 2010), de la mano

con lectores especializados como el Kindle de Amazon (noviembre 2007) han ampliado una parte

crucial de este paradigma. Una computadora se volvió una “máquina universal de medios” como

nunca antes (con acento en el consumo de medios creados por otros).

Así que si en 1984, la primera computadora de Apple fue criticada por sus aplicaciones GUI y la falta

de herramientas de programación para sus usuarios, el iPad de 2010 fue criticado por no incluir

suficientes herramientas GUI para el trabajo pesado de creación y producción de medios (lo que es un

retroceso en la visión del Dynabook de Kay). La siguiente reseña del iPad, del periodista Walter S.

Mossberg del Wall Street Journal, era típica de las reacciones del nuevo aparato: “si usted navega de

Web, toma notas, usa redes sociales, manda correos electrónicos y consume fotos, videos, libros,

revistas, periódicos y música, entonces éste aparato puede ser para usted” 3. David Pogue, del New

York Times, hace eco: “el iPad no es una laptop. No es muy buena para crear cosas. Pero, por otro

lado, es infinitamente mejor para consumir contenidos (libros, música, video, fotos, Web, correo

electrónico y demás)” 4.

2 http://www.apple.com/itunes/25-billion-app-countdown/, consultado el 5 de marzo, 2012. 3 http://ptech.allthingsd.com/20100331/apple-ipad-review/, consultado el 3 de abril, 2010. 4 http://gizmodo.com/5506824/first-ipad-reviews-are-in, consultado el 3 de abril, 2010.

Page 3: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 3 / 36

Sin importar qué tanto las contemporáneas “máquinas universales de medios” cumplen o traicionan

la visión original de Kay, sólo son posibles gracias a ellos. Kay y Xerox PARC construyeron la primera

máquina de medios al crear un número de aplicaciones para producirlos con una interfaz unificada y

la tecnología para que fueron amplificadas por los usuarios. Este capítulo retoma la noción de la

computadora como “metamedio” para investigar de qué manera la ha redefinido. Profundizaremos en

la pregunta: ¿qué son exactamente los medios después del software?

Desde el punto de vista de la historia de los medios, se pueden distinguir dos diferentes tipos de

medios en el metamedio computacional. El primero es la simulación antes medios físicos existentes

con nuevas propiedades, por ejemplo el “papel electrónico”. El segundo tipo es un número de nuevos

medios computacionales sin precedentes físicos. Aquí caben los ejemplos de aquellos “verdaderos

nuevos medios” enlistados con nombre y/o lugar de invención: hipertexto e hipermedios (Ted Nelson);

espacios 3D navegables (Ivan Sutherland); multimedios interactivos ( “Aspen Movie Map” del

Architecture Machine Group).

Esta taxonomía es consistente con la definición de metamedio computacional anotada al final del

artículo de Kay y Goldberg. Pero hagámonos otra pregunta: ¿cuáles son los componentes básicos de

estas simulaciones de medios existentes y de nuevos medios? De hecho, ya hemos encontrado

algunos de estos componentes pero no me he referido a ellos explícitamente.

Los componentes básicos usados en el metamedio computacional son los diferentes tipos de datos

de medios y las técnicas para generar, modificar y visualizar estos datos. Actualmente, los tipos de

datos que son más usados son los textos, las imágenes vectoriales, las imágenes en secuencia

(animaciones vectoriales), imágenes de tonos continuos y secuencias de dichas imágenes (es decir,

fotografías y video digital), modelos 3D y audio. Estoy seguro que algunos lectores preferirían una lista

diferente, y no los culpo. Lo que es importante en este punto de la discusión es establecer que hay

muchos tipos de datos y no sólo uno.

Este punto nos lleva al siguiente: las técnicas de manipulación de datos pueden ser, a su vez,

divididas en dos tipos, según el tipo de datos que pueden manejar:

A) el primer tipo son las técnicas de creación, manipulación y acceso especificas a un tipo de

datos. O sea, estas técnicas sólo se pueden usar en un tipo de datos o tipo de “contenido de

medios” en particular. Me referiré a estas técnicas como “específicas a un medio” (aquí, la

palabra “medio” significa en realidad “tipo de dato”). Por ejemplo, la técnica de “satisfacción

de restricciones geométrica” inventada por Sutherland sólo puede actuar en data gráficos

definidos por puntos y líneas. Sin embargo, no tendría sentido aplicar esta técnica al texto.

Page 4: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 4 / 36

Otro ejemplo, los programas de edición de imágenes incluyen generalmente varios filtros

como “enfoque” y “desenfoque” que pueden ejecutarse en imágenes de tonos continuos.

Pero normalmente no podríamos enfocar o desenfocar un modelo 3D. Y los ejemplos siguen:

no tendría sentido la “extrusión” de un texto o su “interpolación”, así como tampoco lo sería

definir un cierto número de columnas en una imagen o una composición de audio.

Parece que algunas de estas técnicas de manipulación de datos no tienen precedente

histórico en otros medios (la “satisfacción de restricciones geométricas” puede ser una). Otro

caso son los algoritmos evolutivos usados para generar imágenes estáticas, animaciones y

formas 3D. Pero existen técnicas específicas de medios que sí hacen referencia a

herramientas y máquinas precedentes (por ejemplo, los pinceles en aplicaciones de edición

de imágenes, comandos de zoom en software gráficos o comandos de recorte/alargamiento

en software de edición de video). En otras palabras, la misma división entre simulaciones y

“verdaderamente nuevos” medios también aplica para las técnicas individuales detrás del

“metamedio computacional”.

B) el segundo tipo son las técnicas del nuevo software que funcionan con datos digitales en

general (es decir que no son particulares a un medio). Entre los ejemplos tenemos: “control

de vistas”, hipervínculos, ordenar, buscar, protocolos de red como HTTP, las técnicas de

áreas como Inteligencia Artificial, Aprendizaje de Máquinas, Descubrimiento de Información y

demás sub-ramas de las ciencias computacionales. De hecho, gran parte de las ciencias

computacionales, ciencias de la información e ingeniería computacional tratan sobre estas

técnicas (debido a que se enfocan en el diseño algoritmos para procesar información en

general). Estas técnicas son formas generales para manipular datos, sin importar su

contenido (valores de pixeles, caracteres de texto, sonidos, etc.). Me referiré a estas técnicas

como independientes de los medios. Por ejemplo, como ya lo vimos, el “control de vistas” de

Engelbart (la idea que una misma información pueda ser vista de diferentes maneras) ha

sido implementada en casi todos los editores, por consiguiente actúa sobre imágenes,

modelos 3D, archivos de video, proyectos de animación, diseño gráfico y composiciones

sonoras. El “control de vistas” también ya es parte integral de los modernos sistemas

operativos (Mac OSX, Microsoft Windows, Google Chrome OS). Diario usamos control de

vistas de nuestros archivos: cambiando entre “listas” a “íconos” y “columnas”. Las técnicas

generales que son independientes de los medios también incluyen comandos de interfaz

como cortar, copiar y pegar. Por ejemplo, puedes seleccionar el nombre de un archivo de

algún directorio, un grupo de pixeles en una imagen o un conjunto de polígonos en un modelo

3D, para después cortarlos, copiarlos y pegarlos.

Page 5: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 5 / 36

Muy bien. Tenemos dos formas diferentes de “dividir” un metamedio computacional. Si queremos

seguir usando el concepto de “medio”, diremos que la computadora simula medios precedentes y

permite definir nuevos. Alternativamente, podemos pensar en el metamedio computacional como una

colección de tipos de datos, técnicas específicas de medios que sólo funcionan en tipos particulares,

y en técnicas independientes a los medios que pueden funcionar con cualquier tipo de dato. Cada uno

de los medios del metamedio computacional está hecho de estos componentes básicos. Por ejemplo,

los elementos del medio “espacio navegable 3D” son los modelos 3D y las técnicas para

representarlo en perspectiva, el mapeo de texturas, la simulación de varios efectos de iluminación,

mapeo de sombras, etc. Otro ejemplo: los elementos de la “fotografía digital” son las imágenes de

tonos continuos capturadas por sensores del lente y una variedad de técnicas para manipular dichas

imágenes: cambiar contraste y saturación, tamaño, composición, etc.

Un comentario más sobre la distinción entre técnicas específicas y técnicas independientes de los

medios. Todo esto funciona muy bien en teoría pero en la práctica, sin embargo, es muy difícil decir en

cuál categoría debe situarse un medio o una técnica. Por ejemplo, ¿se puede decir que la posibilidad

de Sketchpad para trabajar en cualquiera de sus 2,000 niveles de acercamiento es una extensión de

técnicas precedentes (como lo es acercar el cuerpo al lienzo o usar lupas) o más bien algo nuevo? ¿o

qué podemos decir del espacio navegable 3D que usamos como ejemplo de nuevo medio sólo posible

con la computadora (que se remonta a la realidad virtual de Sutherland en 1966)? ¿es algo nuevo o

es una extensión de medios físicos como la arquitectura, que permiten caminar al interior de sus

estructuras?

Las fronteras en “medios simulados” y “nuevos medios”, o entre técnicas “específicas a un medio” e

“independientes a un medio” no debe tomarse de forma estricta. En lugar de pensar en ellas como

categorías sólidas, es mejor imaginarlas como coordenadas del mapa del metamedio computacional.

Como cualquier primer boceto, sin importar lo impreciso, este mapa es útil porque nos sirve como

base para irlo modificando a medida que avanzamos el estudio.

Técnicas independientes y específ icas a los medios

Ahora que tenemos nuestro primer mapa del metamedio computacional, veamos si podemos detectar

cosas que no hayamos notado antes. Primero, observamos cierto número de medios, viejos y nuevos,

que corresponden a nuestro entendimiento de la historia de medios (por ejemplo, si echamos un

vistazo al sumario de Understanding Media de McLuhan, encontraremos un par de docenas de

capítulos dedicados a un tipo particular de medio, de la escritura y los caminos a los carros y la TV).

Segundo, vemos varias técnicas específicas a ciertos medios, algo que también nos es familiar:

pensemos en técnicas de edición de cine, formas de bocetar un dibujo, creación de rimas en poesía, o

Page 6: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 6 / 36

formas de dar narrativa a eventos cronológicos en la literatura. Pero una zona del mapa se ve nueva y

diferente con relación a nuestra previa historia cultural. Ésta es el área en donde se hayan las

“técnicas independientes a los medios”. ¿Qué son estás técnicas y cómo pueden funcionar de

manera transversal en los medios, es decir, a lo largo de diferentes tipos de datos?

Argumentaré que la “independencia de medios” no sucede porque sí. Para que una técnica funcione

en varios tipos, los programadores deben implementar distintos métodos apropiados para cada medio

pero de forma separada. Entonces, las técnicas independientes de los medios son conceptos

generales traducidos en algoritmos que, en efecto, funcionan en tipos de datos particulares.

Exploremos algunos ejemplos.

Pensemos en el omnipresente copiar-pegar. El algoritmo para seleccionar una palabra en un

documento es diferente al algoritmo para seleccionar una curva en un dibujo vectorial, o del algoritmo

para seleccionar una parte de un imagen de tonos continuos. En otros palabras, “copiar-pegar” es un

concepto general que se implementa de forma diferente en el software de medios, según el tipo de

datos que dicho software está diseñado a soportar (la implementación original de Larry Tesler, entre

1974 y 1975 en PARC, estaba dedicada únicamente al texto). Aunque copiar-cortar-pegar sean

comandos comunes a muchas aplicaciones, éstos son implementados de formas diferente.

Buscar funciona de manera similar. El algoritmo para buscar una frase en un documento de texto es

diferentes al algoritmo que busca un rostro en una foto o clip de video (aquí estoy hablando de

“búsquedas basadas en el contenido”, es decir, búsquedas en el contenido mismo y no en los

metadatos, como los títulos, autores, etc.). Sin embargo, a pesar de estas diferencias el concepto

general de “búsqueda” es el mismo: localizar cualquier elemento, dentro de uno o varios objetos

mediáticos, que cumpla con cierto criterio definido por el usuario. Entonces, podemos pedir a los

motores de búsqueda que no localicen aquellas páginas Web en donde existe cierta palabra, o

conjunto de palabras clave, o imágenes similares a cierta composición dada.

Como consecuencia del popular paradigma de búsqueda en el Web, podemos asumir que podremos,

en principio, hacer búsquedas en cualquier medio. En realidad es mucho más fácil buscar datos con

cierta organización modular (como texto o modelos 3D) que en los demás (video, imágenes bitmap,

audio). Pero, para al usuario, estas diferencias no son importantes. Lo que importa es que todo tipo

de medio haya adquirido la nueva propiedad de “rastreabilidad” o “buscabilidad”.

Igualmente, a mediados de los 2000s, la foto y el video empezaron a mostrar otras propiedades de su

“encontrabilidad” (aquí tomo prestado el término “encontrabilidad” del libro Ambient findability: what

Page 7: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 7 / 36

we find changes who we become5, 2005, de Peter Morville). La apariencia para los consumidores de

un medio con soporte GPS incluye: geo-etiquetas, geo-búsqueda, servicios de localización,

intercambio de contenidos geográficos (como Flickr en 2006) y aplicaciones para su gestión (como lo

introdujo iPhoto en 2009). Esto ha añadido la propiedad de “localizabilidad”.

Otra noción que se convertido, gracias al esfuerzo de muchas personas, en una técnica

“independiente de los medios” es la visualización de la información (que algunos abrevian infovis). El

mero nombre “infovis” connota que no se trata de una técnicas específica, sino un método general

que puede aplicar potencialmente a cualquier tipo de dato. Su nombre implica que podemos usar

cualquier dato de entrada (números, texto, redes, sonido, video, etc.) y mapearlo u componerlo en una

organización espacial para identificar patrones y relaciones. Algo similar puede ser la sonificación de

datos, que hace lo mismo pero nos da como resultado sonidos.

Sin embargo, hay que decir que tomó décadas inventar técnicas que hicieron real esta posibilidad. En

los 80’s, el campo de la visualización científica se enfocaba en la visualización 3D de datos

numéricos. En la segunda parte de los 90’s, las crecientes capacidades gráficas de las PC facilitaron

que más personas experimentaran con la visualización (llevando, al final, a diversas técnicas para

visualizar medios). Las primeras visualizaciones exitosas de grandes cuerpos textuales fueron

alrededor de 1998 (Text Arc, de W. Bradford Paley en 2002; Valence, de Ben Fry en 1999; Rethinking

the Book, de David Small en19986), de estructuras musicales en el 2001 (The Shape of Song, de

Martin Wattenberg), y de películas en 2000 (The Top Grossing Film of All Time, 1 x 1 de Jason

Salavon).

La infovis es un ejemplo particularmente interesante técnicas independiente de los nuevos medios

debido a la variedad de algoritmos y a las estrategias de qué y cómo visualizar. Por ejemplo, Martin

Wattenberg, cuyo trabajo “se enfoca en exploraciones visuales de datos culturalmente significativos”

7, ha creado visualizaciones de la historia del net art, de composiciones de Bach o de Philip Glass y de

procesos de razonamiento de un programa computacional de ajedrez. Para cada caso ha debido

tomar decisiones sobre qué dimensiones de los datos debe elegir y cómo traducirlas en forma visual.

Y a pesar de esas diferencias, reconocemos dichos proyectos como visualizaciones de información.

Todas son realizaciones de un mismo concepto general: elegir ciertas dimensiones y representarlas

5 Peter Morville. Ambient Findability: What We Find Changes Who We Become. O'Reilly Media, Inc., 2005. 6 W. Bradford Paley, TextArc, 2002, http://www.textarc.org/; Ben Fry, Valence, 1999,

http://benfry.com/valence/; David Small, Rethinking the Book, tesis doctoral, 1999,

http://acg.media.mit.edu/projects/thesis/DSThesis.pdf. 7 http://www.bewitched.com/about.html, 23 de julio, 2006.

Page 8: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 8 / 36

con elementos gráficos8. Todas están basadas en las capacidades del software para manipular datos

numéricos y mapearlos de un formato a otro. Finalmente, todas pueden ser consideradas

aplicaciones de los gráficos computacionales de los nuevos medios (piensa en la afinidad que existe

entre un modelo 3D de un rostro escaneado y una visualización vectorial de un rostro sobre datos

temporales dinámicos de un video).

Como resultado del trabajo de Wattenberg en infovis, y de muchos otros más en las últimas dos

décadas, los datos han adquirido una nueva propiedad común: su estructura puede ser visualizada.

Esta nueva propiedad de los medios está presente en diferentes aplicaciones, librerías de software,

proyectos de arte y diseño, prototipos y artículos de investigación. Hoy en día, algunas herramientas

de visualización vienen incluidas en software de producción de medios, por ejemplo, editores como

Photoshop pueden mostrar el histograma de una imagen, Final Cut puede visualizar el contenido

cromático de un clip de video y, algunos reproductores de música como iTunes tienen la opción de

visualizar música. El servicio Google Trends visualiza patrones de búsqueda; YouTube y Flickr

visualizan estadísticas de visitas por video y foto. Un recorrido a los miles de proyectos recolectados

por infosthetics.com, visualcomplexity.com, entre otros blogs, nos deja ver una amplia variedad de

experimentos en visualización de medios como canciones, poemas y novelas, y todo tipo de datos,

desde los movimientos en un cuarto, durante una hora, de los hijos y el gato de un artista (1hr in front

of the TV by umblebee, 2008) hasta la red de citas de una revista científica (Eigenfactor.org by Moritz

Stefaner, 20099). Además, es posible encontrar esos mismos proyectos en exhibiciones de arte como

Info-Aesthetics10 en SIGGRAPH 2009 o Design and Elastic Mind (2008)11 y Talk to Me (2011) en el

MOMA.

Visualización, rastreabilidad y localizabilidad: éstas y muchas otras nuevas técnicas de

independientes de los medios destacan en el mapa de los medios computacionales precisamente

porque van contra nuestra comprensión habitual de los medios (entendidos en plural, como medios

separados). Si podemos usar las mismas técnicas en diferentes tipos de medios, ¿qué pasa con las

distinciones entre medios?

La idea que las obras de arte usan distintos medios, cada uno con sus propias técnicas y formas de

representación, fue central para la estética y el arte moderno. En su Laokoon oder Über die Grenzen

8 Para un estudio detallado sobre infovis, sus principios generales y nuevos desarrollos, consultar mi artículo:

“What is Visualization?” (2010), Visual Studies 26, no. 1 (Marzo, 2011). 9 http://well-formed.eigenfactor.org/; http://www.flickr.com/photos/the_bumblebee/2229041742/in/pool-

datavisualization. 10 http://www.siggraph.org/s2009/galleries_experiences/information_aesthetics/. 11 http://www.moma.org/interactives/exhibitions/2008/elasticmind/.

Page 9: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 9 / 36

der Malerei und Poesie (Laocoon: ensayo sobre los límites de la pintura y la poesía), el filósofo

alemán Gotthold Ephraim Lessing recalcaba la diferencia radical entre pintura y poesía debido a que

una se “extiende” en el tiempo y, la otra, en el espacio. Esta idea llega a su clímax a inicios del siglo

XX, cuando los modernistas dedicaron sus fuerzas al descubrimiento de un lenguaje único a cada

medio artístico. El siguiente postulado, hecho en 1924 por Jean Epstein, un cineasta y teórico francés

de la vanguardia, es un típico ejemplo de la retórica modernista de la pureza (innumerables

postulados como ese aparecieron en publicaciones vanguardistas de ese tiempo):

Cada arte construye su ciudad prohibida, su propio territorio exclusivo, autónomo, específico

y hostil a cualquier cosa que no le pertenezca. Tan sorprendente como parezca, la literatura

debe ser primero y sobretodo, literaria; el teatro, teatral; la pintura, pictórica; y, el cine,

fílmico. Hoy la pintura se está liberando de muchas de sus preocupaciones narrativas y

representacionales… el cine debe buscar convertirse, gradualmente y, al final, únicamente,

en fílmico, usando solamente elementos fotogénicos12.

En relación a la pintura, la doctrina de la pureza de medios alcanza su expresión máxima con el

famoso argumento de Clement Greenberg: “debido a que la superficie plana era la única condición

que la pintura no compartía con nadie más, la pintura modernista se orientó hacia lo plano como a

ninguna otra cosa” 13. Notemos que Greenberg no abogaba esta postura como justificación del arte

abstracto de sus contemporáneos, sólo hacía un análisis del modernismo emergente.

No fue hasta después de los 60s, cuando la instalación (una nueva forma de arte que combina

medios y materiales) es aceptada y se vuelve popular, que la obsesión con la especificidad de los

medios pierde importancia.

Sin embargo, aún en su apogeo, la especificidad de medios siempre tuvo su contraparte. Durante el

periodo moderno también encontramos intentos “locales” (es decir, momentos históricos particulares

y escuelas artísticas) para formular principios estéticos que puedan relacionar diferentes medios

entre sí. Pensemos en los esfuerzos de muchos modernistas para establecer líneas paralelas entre

composiciones visuales y musicales. Esta trabajo ha estado comúnmente asociado con la idea de

sinestesia y Gesamtkunstwerk, con teorías, composiciones y tecnologías de Scriabin, The Whitneys

(que fueron pioneros en la animación computacional) y varios artistas más.

12 Jean Epstein, "On Certain Characteristics of Photogénie," in French Film Theory and Criticism, Volumen 1:

1907-1929, ed. Richard Abel (Princeton: University of Princeton Press, 1988). 13 Clement Greenberg, “Modern Painting,” Forum Lectures (Washington, D.C.: Voice of America: 1960),

http://www.sharecom.ca/greenberg/modernism.html.

Page 10: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 10 / 36

Aunque los paradigmas artísticos modernistas (clasicismo, romanticismo, naturalismo,

impresionismos, realismo social, suprematismo, cubismo, surrealismo, etc.) no teorizaron de forma

explícita la estética de los medios transversales, sí se les puede considerar como sistemas que dieron

“propiedades comunes” a varios trabajos de medios. Así, novelas de Émile Zola y pinturas de Manet

fueron agrupadas en una representación “naturalista” y científica de la vida cotidiana; el

constructivismo en la pintura, la gráfica, el diseño industrial, el diseño teatral, la arquitectura y la

moda, compartieron la estética de la “estructura expresada” (el énfasis en la composición estructural

mediante su exageración); la estética de De Stijl, con formas rectangulares, sin intersecciones, en

colores primarios, fue aplicada en la pintura, los muebles, la arquitectura y la tipografía.

¿Cuál es la diferencia entre estos trabajos artísticos, que establecieron correspondencias mediáticas,

y las técnicas de software, que funcionan en diferentes medios? Está claro que los sistemas artísticos

y la producción, edición e interacción de técnicas de medios con software funcionan en niveles

diferentes. Los primeros son responsables del contenido y el estilo de las obras creadas (esto es,

aquello que será creado en primera instancia). Los segundos no sólo son usados para crear, sino

también para interactuar con lo ha sido previamente creado, por ejemplo blogs, fotos y videos en el

Web creados por otros.

Dicho de otra forma, los esfuerzos de los modernistas por crear similitudes entre medios fueron

prescriptivos y especulativos14. Las “propiedades comunes de los medios” podían ser aplicadas a

determinadas obras creadas por ciertos artistas, o grupos. Por el contrario, el software impone las

“propiedades” comunes de los medios en cualquier medio. Entonces, el software determina nuestra

comprensión de los medios en general. Por ejemplo, las aplicaciones y servicios Web incluyen

métodos de navegación, lectura, escucha o visión de objetos mediáticos: añadiendo informaciones

(comentarios, etiquetas, geo-etiquetas) o encontrándolos en conjuntos más grandes (o sea, motores y

comandos de búsqueda). Esto aplica a videos, imágenes, textos, mapas, etc. De esta manera,

podemos decir que el software de medios “interpreta” cualquier medio que toca, y dichas

“interpretaciones” siempre vienen con algunos postulados.

Por supuesto que los sistemas estéticos “independientes de los medios” propuestos por los

modernistas no sólo fueron generativos, pero también interpretativos. Los artistas y teóricos

modernistas siempre querían cambiar la comprensión del arte antiguo y contemporáneo (usualmente

de forma crítica o negativa: cada nuevo grupo quería desacreditar a sus predecesores o a sus

14 Entiéndase que aquí, en lo especulativo, sucede que en muchos casos los sistemas estéticos propuestos no

siempre vieron el día en la práctica. Por ejemplo, ninguna arquitectura supremalista de Kasimir Malevich fue

construida; lo mismo para la arquitectura futurista de Antonio Sant'Elia, tal como la presentó en sus bocetos para

La Città Nuova, 1912-1914.

Page 11: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 11 / 36

competidores). Sin embargo, como sus programas eran teorías y no software, no tenían ningún efecto

material en la interacción de los usuarios con las obras. En contraste, las técnicas de software

afectan nuestra comprensión de los medios mediante operaciones para producir, crear, interactuar y

compartir artefactos mediáticos.

Adicionalmente, los paradigmas artísticos y estéticos, en la práctica, se podían hacer con dos, tres o

quizá cuatro medios (pero definitivamente no todos). El naturalismo se podía ver en la literatura y

artes visuales, pero no en la arquitectura; el constructivismo, por su parte, no se expandió a la música

o a la literatura. Sin embargo, los comandos cortar, copiar y pegar se hallan en todas las aplicaciones

de medios; cualquier objeto de medios puede ser geo-etiquetado; el principio de control de vistas

puede ser implementado en cualquier tipo de medios. Para citar más ejemplos, recordemos cómo los

medios adquieren nuevas propiedades, como la “localizabilidad” y la “buscabilidad”. Cualquier texto

puede ser buscado, sin importar si fuiste tú quien lo escribió o si está repertoriado en las novelas

clásicas del Proyecto Gutenberg. De igual forma, una parte de una imagen puede ser cortada y

pegada en otra imagen, sin importar el estilo de ellas. O sea que el software de medios afecta de igual

forma todos los contenidos de medios, sin importar la estética, la semántica, la autoría o el origen

histórico.

Para resumir esta discusión diremos que, en contraste con los programas artísticos modernos que

creaban diferentes medios con principios similares, las técnicas de software, independientes de los

medios, son ubicuas y “universales”. Por ejemplo, ya vimos que cortar y pegar está presentes en

todos los software de producción (ya sean profesionales o para el público masivo). Además, éstas

técnicas se pueden usar en cualquier obra sin importar su estética o su autoría, es decir, sin importar

que haya sido hecha por un usuario especializado o cualquier persona. De hecho, la posibilidad

técnica de samplear un trabajo mediático creado por otros se ha vuelto la clave de la estética de

nuestra época: el remix.

Claro que no todas las aplicaciones y dispositivos de medios nos ofrecen todas estas posibilidades de

la misma manera. Por ejemplo, Google Books no permite seleccionar y pegar texto de sus páginas.

Así, aunque nuestro análisis aplique a principios técnicos y conceptuales del software y sus

implicaciones culturales, es necesario tener en mente que, en la práctica, estos principios se borran

debido a limitantes comerciales o de derechos de autor, principalmente. Pero hasta el software más

restrictivo incluye algunas operaciones básicas de medios. Al estar presentes en todos los software

diseñados para funcionar en diferentes tipos de medios, estas operaciones establecen un

entendimiento compartido de los medios de hoy. Estas operaciones dan la experiencia al usuario de

“principios comunes a todos los contenidos de los medios”.

Page 12: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 12 / 36

Para concluir, recordemos lo que decía hace unos párrafos: la digitalización de los medios no pone en

riesgo la diferencia entre ellos, pero sí los une de diferentes formas. Además de mis ejemplos

inspirados de Kay y Goldberg, ahora puedo nombrar unos de los desarrollos clave al centro de esta

“atracción de medios” (o sea, técnicas comunes de software que operan a través de diferentes tipos

de medios). Si recordamos que la definición de metamedio incluye una variedad de medios existentes

y nuevos, podemos parafrasearle así: en el metamedio computacional, todos los medios, precedentes

y nuevos, comparten propiedades comunes, es decir, se basan en ciertas técnicas de software para

la gestión, producción y comunicación de datos.

Es difícil sobrevaluar la importancia histórica del desarrollo de estas técnicas mediáticas. Los

humanos siempre hemos usado estrategias generales para organizar nuestras representaciones,

experiencias y acciones culturales. Hemos usado la narrativa, la simetría, el ritmo, la repetición de

estructuras (decoraciones), los colores complementarios, entre otras. Estas estrategias fueron muy

importantes para la percepción, cognición y memoria humana, y es por eso que las encontramos en

toda cultura y todo medio, de la poesía a la arquitectura, de la música a la poesía. Sin embargo, estas

estrategias no siempre estuvieron presentes en materiales y herramientas tecnológicas, sino en la

mente y cuerpo de artesanos que pasaban mensajes de una generación a otra. Los medios modernos

de representación y comunicación nos llevan a otro estado. Generalmente, traen consigo ciertas

técnicas que aplican a cualquier medio que puede ser generado o capturado con ellos mismos

(pensemos en la perspectiva lineal de un solo punto, impuesta por las tecnologías de captura

basadas en lentes, como la fotografía, el cine y el video analógico). Pero esta técnicas sólo podían

aplicar a un cierto tipo de medios. Frente a estos desarrollos, la innovación en el software de medios

claramente se impone. Éstos traen un nuevo conjunto de técnicas que se usan en todos los medios.

Localizabilidad, buscabilidad, conectividad, compartir y “mensajear” contenidos multimedia,

producción, control de vistas, zoom y demás técnicas “independientes de los medios” son virus que

infectan todo lo que toca el software. Por esta simple razón los podemos comprar con los principios

básicos de organización de medios y artefactos que han existido durante miles de años.

Adentro de Photoshop

Los medios contemporáneos son creados, editados, combinados, vividos y organizados con software.

Este software incluye aplicaciones profesionales de diseño, producción y gestión de medios

(Photoshop, Illustrator, Flash, Dreamweaver, Final Cut, After Effects, Aperture, Maya); aplicaciones

para el público masivo (iPhoto, iMovie, Picassa); herramientas de los medios sociales compartir,

comentar y editar (Facebook, YouTube, Video, Photobucket); y, las numerosas apps de los dispositivos

móviles. Para entender a los medios de hoy necesitamos entender el software de los medios: su

genealogía (de dónde viene); su anatomía (interfaces y operaciones); y sus efectos teórico-prácticos.

Page 13: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 13 / 36

¿De qué manera el software de producción de medios modela los medios que crea? Tomar ciertas

decisiones de diseño parece natural y fácil de ejecutar, peo al mismo tiempo otras más quedan

ocultas. ¿De qué manera el software para visualizar, gestionar y combinar medios afecta nuestra

experiencia con el medio y con las acciones que podemos ejercer sobre ellos? ¿De qué manera el

software cambia conceptualmente a los “medios”?

Esta sección continúa la investigación de estas cuestiones mediante el análisis de una aplicación de

software que se ha vuelto sinónimo de “medios digitales”: Adobe Photoshop. Como otros programas

profesionales para la producción y diseño de medios, los menús de Photoshop vienen con una docena

de comandos separados. Si consideramos que cada comando tiene múltiples opciones que le

permiten hacer diferentes cosas, el número completo puede oscilar fácilmente alrededor de los miles.

Esta multiplicidad de operaciones del software contemporáneo es un reto para los Estudios de

Software. Si queremos entender cómo participa el software en la modelación de nuestros mundos e

imaginaciones (todo lo que la gente imagina puede ser hecho con software), necesitamos alguna

manera de organizar estas operaciones según pequeñas categorías para empezar a construir una

teoría del software de aplicaciones. Esto no se puede lograr si sólo nos enfocamos en las categorías

de los menús superiores de las aplicaciones; éstas son, en Photoshop CS6, Archivo, Edición, Imagen,

Capa, Tipo, Selección, Filtro, 3D, Vista, Ventana y Ayuda. Como cada aplicación tiene sus propias

categorías, cualquier lista que combine todas las opciones sería muy larga. Lo que más bien

necesitamos es un sistema más general.

El mapa provisional del metamedio computacional que desarrollamos en secciones previas nos da

una pista de dicho sistema. En esta sección probaremos la eficacidad de este mapa mediante el

análisis de un subconjunto de comandos de Photoshop que, de cierto modo, definen esta aplicación

en nuestro imaginario cultural: los filtros. Igualmente, también revisaremos otra propiedad de

Photoshop: las capas.

Nuestro mapa organiza las técnicas del software según dos esquemas. El primer esquema divide

estas técnicas en dos, dependiendo del tipo de datos que puede leer: 1) técnicas de creación,

manipulación y acceso a medios que son específicas a tipos particulares de datos; 2) técnicas del

nuevo software que funcionan en datos digitales en general (es decir que no son específicas a tipos

particulares de datos). El segundo esquema también divide las técnicas en dos tipos pero bajo un

criterio diferente. Lo que importa aquí son las relaciones entre técnicas de software y las tecnologías

de medios pre-digitales. En esta taxonomía, algunas técnicas son las simulaciones de técnicas de

medios precedentes pero aumentados con nuevas propiedades y funciones. Otras técnicas, por el

contrario, no tiene equivalente previo en los medios físicos o electrónicos.

Page 14: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 14 / 36

Puede ser que para un historiador de medios el segundo esquema sea más significativo, pero ¿qué

hay acerca de los usuarios que son “nativos digitales”? Estos usuarios de software puede que nunca

hayan usado otro medio que tablets, laptops o dispositivos móviles (celulares, cámaras,

reproductores MP3). También se puede que estos usuarios no conozcan los detalles de la animación

con acetatos del siglo XX, o el equipo de edición de cine o cualquier otra tecnología de medios pre-

digitales. ¿Significa esto que la distinción entre simulaciones de herramientas de medios precedentes

y las nuevas técnicas “nacidas en lo digital” no tiene sentido para los nativos digitales y que sólo son

importantes para los historiadores de medios como yo?

Pienso que, mientras la semántica de esta distinción (es decir, la referencia a tecnologías y prácticas

previas) puede que no sea significativa para los nativos digitales, la distinción, en sí, es algo que los

usuarios viven en la práctica. Para entender este caso, preguntemos si todas las técnicas de medios

“nacidas en lo digital” disponibles en el software tienen algo en común (además del hecho de haber

existido antes del software, claro está).

Unos de los principales usos de las computadoras digitales, desde sus inicios, ha sido la

automatización. A partir del momento en que un proceso puede ser definido como un conjunto finito

de pasos simples (es decir, un algoritmo), una computadora puede ser programada para ejecutar

dichos pasos sin la intervención de un humano. En el caso del software, la ejecución de cualquier

comando implica una automatización de “bajo nivel” (debido a que la computadora ejecuta

automáticamente una secuencia de pasos del algoritmo datrás del comando). No obstante, lo que es

importante para el usuario es el nivel de automatización que le ofrece la interface del comando.

Muchas técnicas de software que simulan herramientas físicas comparten una propiedad

fundamental con ellas: necesitan que el usuario las controle “manualmente”. El usuario debe micro-

manejar la herramienta, por así decirlo, dirigiéndola, paso por paso, hasta producir el efecto deseado.

Por ejemplo, debemos explícitamente mover el cursor de cierta manera para producir una

determinada pincelada con la herramienta Brocha; también, es necesario teclear cada letra para

producir una oración determinada. Por el contrario, muchas de las técnicas que no simulan nada que

existía previamente (por lo menos no de manera obvia), ofrecen un nivel mayor de automatización del

proceso creativo. Por ejemplo, en lugar de controlar cada detalle, un usuario especifica parámetros y

controles y pone la herramienta en acción. Todas las técnicas generativas, también llamadas

“procedurales”, disponibles en el software de medio caen en esta categoría. En lugar de crear una

cuadrícula de rectángulos a mano, trazando miles de líneas, un usuario puede especificar el alto y

ancho de la cuadrícula y el tamaño de la celda, entonces el programa se encarga de generar el

resultado deseado. Otro ejemplo de alto nivel de automatización es la interpolación de valores clave

en software de animación. En una producción de animación del siglo XX, un animador experimentado

dibujaba los fotogramas clave, y después los asistentes completaban los cuadros de en medio. El

Page 15: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 15 / 36

software de animación automatiza este proceso con la interpolación automática de valores entre dos

fotogramas clave.

De esta manera, aunque sea de poca importancia para los usuarios que existan herramientas que

hagan cosas que antes no eran posibles u otras que simulen medios físicos previos, la distinción es

en sí algo que los usuarios viven diario. Las herramientas que pertenecen al primer grupo muestran la

posibilidad de las computadoras para automatizar procesos; las herramientas del otro grupo usan

automatización invisible de bajo nivel tras bambalinas, pero piden al usuario una manipulación

directa.

Filtro > Estilizar > Viento…

Una vez establecidos nuestros dos conjuntos de categorías de las técnicas del software

(independientes vs. específicas; simulación de lo previo vs. lo nuevo), intentemos ahora aplicarlas a

los comandos de Photoshop. Pero antes de empezar, es importante resaltar que ambos esquemas

tienen la intención de ser únicamente categorías provisionales. Sólo nos dan un camino posible, como

lo sería el norte, sur, este y oeste en un mapa en donde podemos ubicar múltiples operaciones del

diseño de software de medios. Como todo primer boceto, no importa qué tan impreciso sea este

mapa, su utilidad es que podemos irlo modificando conforme vayamos avanzando. No se trata de que

todo quepa en las categorías de este mapa, sino de descubrir sus límites lo más pronto posible para

ajustar cambios.

Empezaremos con los filtros de Photoshop, esos comandos que están bajo el menú Filtro. Es

interesante hacer notar que una gran parte de los filtros de Photoshop también existe en otros

programas de edición de imágenes, animaciones y video, aunque a veces con nombres diferentes.

Para evitar cualquier malentendido, aquí haré referencia a los comandos de la versión CS4 de

Photoshop15.

La primer cosa que sobresale es que los nombres de muchos filtros de Photoshop hacen referencia a

técnicas de manipulación y creación de imágenes, así como a materiales que existían antes del

desarrollo de la aplicaciones de software de los 90s (pintura, dibujo, bocetos, fotografía, vidrio, neón,

fotocopia). Cada filtro tiene sus opciones particulares, que pueden ser controladas con barras de

progresión interactivas o con un campo de texto, en donde insertamos el valor deseado. Estas

15 Para una historia de las versiones de Photoshop, consultar:

http://en.wikipedia.org/wiki/Adobe_Photoshop_release_history.

Page 16: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 16 / 36

opciones permiten controlar los efectos visuales del filtro con un grado de precisión tal que sería muy

difícil de lograr con su herramienta equivalente física.

Este es un buen ejemplo de mi argumento anterior: las simulaciones de medios físicos precedentes

son aumentadas con nuevas propiedades. En este caso, la nueva propiedad son los controles de

filtro. Por ejemplo, el filtro Espátula ofrece tres opciones: Tamaño del trazo, Detalle del trazo y

Suavidad. Los tres toman valores del 1 al 50. Al mismo tiempo, es importante señalar que los

usuarios expertos de muchas herramientas físicas, como los aerosoles, pueden lograr efectos

imposibles para la simulación con software. Entonces, las simulaciones de software no se deben ver

como mejoras lineales sobre tecnologías de medios precedentes.

Es posible relaciones algunos de estos filtros con medios físicos y mecánicos, como la pintura y la

fotografía, pero otros hacen referencia a acciones y fenómenos del mundo físico que, en primera

instancia, parecería que no tienen nada que ver con los medios. Por ejemplo, el filtro Extrusión genera

conjuntos de bloques o pirámides 3D, con partes de la imagen mapeadas en sus caras. Y el filtro

Onda crea un efecto de arrugas en la superficie de una imagen.

Sin embargo, si examinamos a detalles cualquiera de estos filtros nos daremos cuenta que las cosas

no son tan simples. Tomemos, como ejemplo, el filtro Viento (en el submenú Estilizar). Así es como la

ayuda de Photoshop lo describe: “pone pequeñas líneas horizontales en la imagen para dar el efecto

de soplo de viento. Sus métodos incluyen Viento; Ráfaga, para un efecto más dramático, y Escalonar,

que compensa las líneas en la imagen”. Todos conocemos el efecto visual de un viento fuerte sobre

un ambiente (por ejemplo, sobre un árbol o un césped), pero antes de hallar este filtro probablemente

no nos imaginábamos que podíamos “ventiscar” una imagen. ¿Debemos entender el nombre de este

filtro como una metáfora? ¿o más bien debemos pensar en él como un ejemplo de “doblez”

conceptual (que es la forma en como varios conceptos del lenguaje natural se forman, según la teoría

de la Flexión de conceptos16 ) en donde “viento” más “imagen” dan como resultado un nuevo

concepto actualizado en las operaciones dl filtro Viento?

Esta situación se complica aún más con el hecho de que, al aplicar un filtro Viento a una imagen, el

resultado se vea muy diferentes a lo que realmente pasa con el viento sobre un árbol o césped. Sin

embargo, sí es similar a la fotografía de una escena ventosa, a condición que haya tenido una larga

exposición. Entonces, podemos pensar en el nombre de Viento tanto como metáfora (para imaginar lo

que un algoritmo de transformación puede hacer a una imagen) como simulación de una técnica

16 Consultar Mark Turner y Gilles Fauconnier, The Way We Think: Conceptual Blending and the Mind's Hidden

Complexities (New York: Basic Books 2002).

Page 17: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 17 / 36

fotográfica particular (la larga exposición). O sea que, aunque su nombre haga referencia al mundo

físico, sus operaciones actuales pueden referirse a tecnologías de medios pre-digitales.

¿Existen filtros “nacidos en lo digital”?

Sigamos con la exploración de los filtros de Photoshop. La gran mayoría de ellos hace referencia a

medios físicos previos o a experiencias del mundo físico (por lo menos en lo que respecta a su

nombre). Sólo algunos no lo son. Entre otros, estos filtros serían: Paso alto, Mediana, Reducir ruido,

Enfocar y Ecualizar. ¿Estamos frente filtros “nacidos en lo digital”? En otras palabras, hemos llegado a

ejemplos de “nuevas” técnicas de medios? La respuesta es: no. Como resulta, todos estos filtros son

también simulaciones de software que se refieren a cosas que ya existían antes de las computadoras

digitales.

A pesar de que se trata de un conjunto relativamente pequeño, comparado con la extensa colección

de filtros de Photoshop, se trata de filtros clave para las tecnologías electrónicas, informáticas y de

telecomunicaciones. Además, no sólo se pueden usar en imágenes digitales sino también en

cualquier tipo de datos: sonidos, transmisiones de TV, datos capturados por un sensor ambiental,

datos de un aparatos de imagen médica, etc.

En su versión Photoshop, estos filtros trabajan en imágenes de tonos continuos (bitmaps), pero como

pueden ser usados en otros tipos de señales, en realidad pertenecen a la categoría técnicas

“independientes de los medios”. Son técnicas generales que se desarrollaron primero en la ingeniería

y luego en las ciencias computacionales para el procesamiento de información. La aplicación de estas

técnicas en las imágenes forma parte del campo del procesamiento de imágenes, definido como

“cualquier forma de procesamiento de información que tiene como entrada una imagen, como las

fotografías y el video” 17 . Esta relación conceptual entre procesamiento de “información” y de

“imágenes” ejemplifica un argumento de este libro: en la cultura del software, los “medios digitales”

son un conjunto particular de una categoría más amplia, que es la “información”.

Como estos filtros, muchas de las “nuevas” técnicas para la creación, producción y análisis de

medios implementadas en el software no fueron hechas para funcionar en datos de medios. Más

bien, fueron hechas para el procesamiento de información y de señales en general, y después fueron

adaptadas o heredadas en los medios. Entonces, el desarrollo de software acerca diferentes tipos de

medios debido a que las mismas técnicas son usadas por todos ellos. Al mismo tiempo, hoy los

17 Ibid.

Page 18: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 18 / 36

“medios” están relacionados con todos los demás tipos de información, ya sean datos financieros,

patentes, resultados de experimentos científicos, etc.

Ésta es una de las dimensiones teóricas más importantes en el paso de los tecnologías de medios

físicos y mecánicos a los medios electrónicos y al software digital. Antes, los herramientas de medios

físicos y mecánicos eran usadas para crear contenidos accesibles directamente mediante los

sentidos humanos (con excepciones notables, como el código Morse) y por ello las posibilidades de

cada herramienta estaban determinadas por aquello que era significativo a un sentido dado. Un

pincel podía hacer trazos con color, grosor y forma (propiedades directamente asociadas con la vista y

el tacto). De forma similar, los ajustes de una cámara fotográfica afectaban el enfoque y contraste de

las fotos capturadas (visión humana). Una forma diferente de expresar esto era decir que el

“mensaje” no estaba codificado de ninguna manera: era creado, almacenado y accesado en su forma

nativa. Así que, si tuviéramos que redibujar el famoso diagrama del sistema de comunicación de

Claude Shannon (1948) para la era pre-electrónica, deberíamos borrar las etapas de codificación y

decodificación18.

Las tecnologías de medios basadas en la electrónica, como el telégrafo, el teléfono, la radio, la

televisión y, más tarde, las computadoras digitales, usan la codificación de mensajes (o “contenido”).

Y esto hace posible la idea de “información”: una dimensión abstracta y universal de cualquier

mensaje, separado de su contenido. En lugar de aplicarse directamente en sonidos, imágenes, cine o

texto, los aparatos electrónicos y digitales operan en el continuo de señales y datos numéricos

discretos. Algunos ejemplos son: modulación, suavidad (reducción de diferencias en los datos) y

enfoque (exageración de las diferencias). Si los datos son discretos, se pueden hacer otras

operaciones como búsqueda y clasificación.

Con la llegada de la codificación, tenemos un nuevo nivel de eficiencia y velocidad en el

procesamiento, transmisión e interacción con los datos de medios y el contenido de la comunicación.

Así se explica en parte porque los medios electrónicos y digitales remplazaron otras herramientas

específicas a ciertos medios y máquinas. Éstas operaciones automatizan procesos que van desde la

reducción de tamaño y la banda pasante, la mejora de la calidad y la distribución en redes de

comunicación.

El campos del procesamiento de imágenes digitales se empezó a desarrollar en la segunda parte de

los 50’s, cuando científicos y militares se dieron cuenta que las computadoras podían analizar e

mejorar automáticamente la calidad de imágenes aéreas y satelitales. Otros usos pioneros incluyen el

18 C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal 27 (Julio, 1948):

379-423; (Octubre, 1948): 623-656.

Page 19: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 19 / 36

reconocimiento de caracteres y la conversiones estándares de telefotografías19. Como parte de este

desarrollo, ésta área tomó filtros básicos que eran comunes en las electrónica y los adaptó en las

imágenes digitales. Los filtros Photoshop que automáticamente mejoran la apariencia de una imagen

(por ejemplo, aumentar el contraste o reducir ruido), vienen directamente de este periodo (finales de

los 50’s e inicios de los 60’s).

En resumen, los filtros de Photoshop que parecen “nacidos en lo digital” (o “nativos del software”)

tienen sus predecesores físicos en los filtros análogos, que fueron usados en el teléfono, la radio, el

telégrafo, los instrumentos de música electrónica y demás tecnologías de la primera mitad del siglo

XX. Y todo esto ya estaba siendo estudiado en el procesamiento de señales antes de pasar a la

imagen digital.

Filtro > Distorsionar > Onda…

El reto que implica decidir en qué categoría debemos ubicar los filtros de Photoshop sigue vivo si

continuamos explorando dicho menú. Como lo dijimos anteriormente, los esquemas para clasificar

técnicas de software son un mapa inicial para empezar la discusión.

Las dificultades para categorizar tal o tal técnica están directamente relacionadas con la historia de

las computadoras digitales, vistas como máquinas de simulación. Cada componente de los medios

computacionales viene de algún lugar fuera de las computadoras. Esto es cierto no sólo para una

parte significante de técnicas de producción de medios (filtros, lápices y pinceles digitales, Diseño

Asistido por Computadora, instrumentos musicales virtuales, teclados, etc.), sino también para las

operaciones computacionales más básicas (clasificar, buscar, organizar). Cada una de estas

operaciones y estructuras puede, conceptual e históricamente, remontarse a operaciones físicas y

mecánicas de datos, conocimiento y gestión de memoria, que ya existían antes de los años 40. Por

ejemplo, los “archivos” y “fólder” de computadora hacen referencia a sus predecesores de papel, que

ya eran un estándar en las oficinas. Las primeras computadoras comerciales de IBM fueron

promocionadas como equivalentes más rápidos de otros equipos de IBM vendían desde hace

décadas: calculadoras electro-mecánicas, tabuladoras, clasificadores, etc. Sin embargo, cuando

cualquier operación o estructura fue simulada por la computadora, también fue mejorada y

aumentada. Este proceso de transferencia, del mundo físico al computacional, sigue existiendo,

pensemos en la interfaz táctil popularizada por el iPhone (2007). Entonces, mientras Alan Turing

19 A pesar de que el procesamiento de imágenes es un área muy activa de las ciencias computacionales, no

conozco algún libro o artículo que trace su historia. El primer libro sobre procesamiento de imágenes fue Azriel

Rosenfeld, Picture Processing by Computer (New York: Academic Press, 1969).

Page 20: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 20 / 36

definió la computadora como una máquina general de simulación, si consideramos sus usos y

desarrollos subsecuentes, es más apropiado pensar en la computadora como una máquina de

simulación y de aumento. La dificultad de clasificar diferentes técnicas del software de medios es

resultado directo de este paradigma subyacente al desarrollo de software desde sus inicios.

El cambio de herramientas y materiales de medios físicos en algoritmos diseñados para simular sus

efectos tiene otra consecuencia importante. Como hemos visto, algunos filtros de Photoshop hacen

referencia explícita a medios artísticos previos; otros hace referencia a diversas efectos, acciones y

objetos físicos (Molinete, Extrusión, Viento, Resplandor difuso, Rizo, Vidriera, Onda, Grano, Retazos,

Encoger, etc.). Pero en ambos casos, al cambiar los valores de los controles de cada filtro, podemos

alterar significativamente el efecto visual, yendo a una dimensión que ya no es familiar. Podemos

usar un mismo filtro para lograr un efecto parecido a su contraparte física, pero también para lograr

algo completamente diferente a lo que existe en la naturaleza o en los medios viejos, sólo posible con

algoritmos de manipulación de pixeles. Lo que empieza con una referencia al mundo físico, usando

los ajuste por default, se vuelve en algo extraño si alteramos los ajustes de un simple parámetro. En

otras palabras, muchos algoritmos simulan los efectos de herramientas, máquinas, materiales y

fenómenos físicos con sus ajustes predefinidos, pero cuando los cambiamos, ya no funcionan como

simulaciones.

Por ejemplo, analicemos el comportamiento del filtro Onda (en el submenú Distorsionar). Este filtro

hace referencia a un fenómeno físico conocido y, de hecho, puede producir efectos visuales que

podemos llamar “ondas”. Esto no quiere decir que el efecto de este filtro deba tener una similitud

exacta con el significado literal de la palabra onda, definida según el diccionario como: “un disturbio

en la superficie de un cuerpo líquido, como el mar o los lagos, en forma de cadena en incremento” 20.

En nuestro lenguaje coloquial, usamos la palabra “ondear” metafóricamente para referirnos a algún

movimiento periódico (“ondear la bandera”) o a alguna forma estática que asemeje una onda o

turbulencia (“hacer ondas”). Según la influyente teoría del lingüista cognitivo George Lakoff, éste uso

metafórico no es una excepción sino la norma en el lenguaje y pensamiento humano. Lakoff propuso

que la mayoría de nuestros conceptos abstractos son proyecciones metafóricas de experiencias

sensomotoras de nuestro cuerpo y el mundo físico21. “Hacer ondas”, y otras metáforas derivadas de

nuestra experiencia perceptiva de ver ondas reales, ejemplifica este mecanismo general del lenguaje.

De acuerdo con la teoría de metáforas de Lakoff, algunos detalles del filtro Onda (así como demás

filtros inspirados del mundo físico) se pueden entender como proyecciones metafóricas similares.

Dependiendo de la selección de valores en los parámetros, este filtro puede producir efectos que

20 http://dictionary.reference.com/browse/wave, Agosto 1, 2012. 21 George Lakoff y Mark Johnson, Metaphors We Live By (Chicago: University of Chicago Press, 1980).

Page 21: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 21 / 36

asemejan nuestra experiencia perceptiva de ondas física reales o nuevos efectos relacionados con las

ondas, metafóricamente.

El filtro genera ondas según la función del seno (y = seno x); luego las añade y usa el resultado para

distorsionar una imagen. El usuario puede controlar el número de ondas con el parámetro Número de

generadores. Si este número es 1, el filtro genera una sola onda seno. Al aplicar esta función a una

imagen, la distorsiona siguiendo un patrón de variación periódico. O sea que el filtro genera un efecto

que, efectivamente, parece una onda.

Sin embargo, en algún punto, la conexión metafórica con el mundo real se rompe y en este caso la

teoría de Lakoff ya no nos ayuda. Si aumentamos el número de generadores (podemos ir hasta 999),

el patrón que produce el filtro ya no parece periódico y ya no se puede relacionar con las ondas

reales, ni siquiera metafóricamente.

La razón del comportamiento de esta filtro está en su implementación. Como ya lo hemos explicado,

cuando el generador está puesto en 1, el algoritmo genera una sola función seno. Si está en 2, se

generan dos funciones y así sucesivamente. Los parámetros de cada función son seleccionados de

forma aleatoria dentro de la selección del usuario.

Si seleccionamos un número bajo de generadores (del 2 al 5, por ejemplo), a veces los valores

aleatorios que se añaden al resultado siguen haciendo que parezca una onda, pero en otros casos no.

Y si incrementamos el número de funciones, el resultado nunca parece una onda.

El filtro Onda puede crear prácticamente una variedad infinita de patrones abstractos, y muchos de

ellos no son periódicos de forma obvia, es decir que ya no son reconocidos visualmente como

“ondas”. Lo que son es el resultado de un algoritmo computacional que usa fórmulas y operaciones

matemáticas (generar y añadir funciones seno) para crear un vasto espacio de posibilidades visuales.

Así, aunque el filtro se llama “Onda”, sólo una pequeña parte de su espacio corresponde a efectos

semejantes al mundo físico.

Lo mismo puede decirse de muchos otros filtros que remiten a medios físicos. Los filtros del submenú

Artístico y del submenú Textura producen simulaciones bastante precisas con sus ajustes pre-

definidos pero, cuando los alteramos, el resultado puede ser patrones muy abstractos.

La operación de filtros de Photoshop tiene consecuencias teóricas importantes. Mencionamos antes

que las herramientas de software que simulan instrumentos físicos (pinceles, plumas, reglas, gomas,

etc.) necesitan un control manual, mientras que las otras, que no tienen referente previo, permiten un

Page 22: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 22 / 36

nivel mayor de automatización. Un usuario introduce los valores del parámetro y el algoritmo crea el

resultado deseado.

El mismo “alto nivel” de automatización se halla en las técnicas de software “generativo” (o

“procedural”) que se usan actualmente. Estos trabajos generados con algoritmos van de los gráficos

fijos y animados a la arquitectura y los juegos (de las visualizaciones y animaciones en tiempo real de

la artista de software Lia22 a los mundos masivos generados proceduralmente en el videojuego

Minecraft). Otros proyectos generativos usan algoritmos ara crear automáticamente formas

complejas, animaciones, formas espaciales, música, planos arquitectónicos, etc. (una buena

selección de trabajos generativos e interactivos puede verse aquí:

http://www.processing.org/exhibition/). Debido a que muchas obras creadas con algoritmos

generativos son abstractas, los artistas y teóricos las oponen a aquellas hechas con Photoshop y

Painter, usados por ilustradores y fotógrafos comerciales para lograr realismo y figuración. Además,

como éstas últimas aplicaciones simulan modelos de creación que son más manuales, también son

vistas como menos “específicas a los nuevos medios” que el software generativo. Al final, ambas

críticas llevan a decir que el software que simula “medios viejos” es más conservador, mientras que

los algoritmos y obras generativas son vistas como progresistas debido a que son única a los “nuevos

medios”. Cuando la gente dice que las obras que requieren escribir código computacional califican

como “arte digital” y aquellas que sólo usan Photoshop, evocan los mismos argumentos anteriores.

Sin embargo, las técnicas de software que simulan medios previos y aquellas que son explícitamente

procedurales son parte del mismo continuo al momento en que se implementan en aplicaciones

como Photoshop. Como vimos con el filtro Onda, el mismo algoritmo puede generar una imagen

abstracta o realista. De igual forma, los algoritmos de sistemas de partículas son usados

ampliamente la producción de películas para generar explosiones realistas, fuegos artificiales,

parvadas de pájaros y demás fenómenos físicos. Otro ejemplo: técnicas procedurales usadas en

diseño arquitectónico para crear estructuras espaciales abstractas también son usadas en

videojuegos para generar ambientes 3D realistas.

Menús Historia y Acciones

Esta discusión sobre filtros Photoshop empezó con la intención de comprobar la utilidad de los dos

esquemas de clasificación de técnicas de software en software de medios: 1) técnicas

independientes vs específicas de los medios; 2) las simulaciones de herramientas previas vs técnicas

que no simulan explícitamente medios previos. El primer esquema llama nuestra atención porque las

22 http://www.liaworks.com/category/theprojects/.

Page 23: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 23 / 36

aplicaciones de medios comparten algunos géneros, por así decirlo, mientras que también ofrecen

técnicas que funcionan en tipos particulares de datos. El segundo esquema es útil si queremos

entender las técnicas de software en términos de su genealogía y su relación con medios previos,

físicos, mecánicos y electrónicos.

La discusión anterior resaltó casos difíciles de distinguir y otros en donde las divisiones son claras.

Para recordar, el filtro Trazos de pincel se inspira claramente de herramientas de medios físicas,

mientras que Añadir ruido no. Los comandos Copiar y Pegar son ejemplos de técnicas independientes

de los medios. Auto-contraste y Reemplazar color son ejemplos de técnicas específicas a ciertos

medios.

Pero a pesar de éstas distinciones, todas las técnicas de creación, producción e interacción de

medios comparten rasgos adicionales que no hemos discutido. Conceptualmente, estos rasgos son

diferentes a las técnicas independientes de los medios, como copiar y pegar. ¿Qué son entonces?

Sin importar si hacen referencia o no a instrumentos, acciones o fenómenos previos, las técnicas de

medios disponibles en el software son implementadas como funciones y programas de software. En

consecuencia, siguen los principios generales de la ingeniería de software moderna. Adicionalmente,

sus interfaces siguen convenciones establecidas en todos los demás software de aplicación (ya sean

hojas de cálculo, gestión de inventarios, análisis financieros o diseño Web). Se les dan amplios

controles numéricos, sus preferencias se pueden guardar y volver a cargar después, su uso queda

grabado en la ventana de Historia, se pueden usar automáticamente mediante la grabación y

reproducción de Acciones. Dicho de otra forma, adquieren completa funcionalidad del ambiente de

software moderno, que es muy diferente a los medios y máquinas físicas previas. Debido a estos

principios compartidos de implementación, todas las aplicaciones de software son como especies que

pertenecen a la misma familia evolutiva, siendo el software de medios una rama del árbol23.

Los pioneros del software de medios querían extender las propiedades de las tecnologías y

herramientas de medios que estaban simulando en la computadora. Se trataba de crear un “un

nuevo medio con nuevas propiedades”, como lo dijeron Kay y Goldberg. Así, las técnicas de software

que se refieren a procesos y técnicas previas son también “nuevos medios” porque se comportan de

forma muy diferente a sus predecesores. Hoy tenemos una razón de más para apoyar esta

conclusión. Las nuevas funcionalidades (múltiples niveles de zoom, copiar, pegar, buscar, etc.) y las

convenciones estándar de la interfaz (controles, pre-visualización, historia) distinguen entre la

herramienta de simulación de medios más “realista” de medios de su predecesor.

23 La biología contemporánea ya no emplea la idea un árbol evolutivo. El concepto de “especie” se ha vuelto

también problemático. Aquí sólo usamos estos términos como metáfora.

Page 24: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 24 / 36

Esto significa que usar cualquier software de creación y producción de medios es usar “nuevos

medios”. O, para desarrollar mejor esta frase: todas las técnicas y herramientas de medios

disponibles en el software de aplicación son “nuevos medios”, sin importar que alguna de ellas haga

referencia a medios, fenómenos o tareas comunes que existían antes de convertirse en software.

Escribir con Microsoft Word es usar nuevos medios. Tomar fotos con una cámara digital es usar

nuevos medios. Aplicar el filtro Nubes (en el submenú Interpretar), que usa un algoritmo automático

para generar texturas similares a las nubes, es usar nuevos medios. Dibujar trazos con la herramienta

Pincel es usar nuevos medios.

En otras palabras, no importa en dónde cataloguemos las técnicas, todas ellas son instancias de un

tipo de tecnología: el software de aplicaciones interactivas. Como ya lo dijeron Kay y Goldberg en

1977, el software interactivo es cualitativamente diferente de todos los medios previos. En los últimos

30 años, éstas diferencias se han vuelto más claras. La interactividad; la personalización; la

posibilidad de simular y crear nuevos medios y tecnologías de información; el procesamiento en

tiempo real de grandes cantidades de datos; el control e interacción con sensores y otras máquinas;

el soporte de colaboración asincrónica en tiempo real… éstas, y muchas más, son las posibilidades

que abre el software moderno (de la mano con el middleware, hardware y las redes) y que lo separan

de todos los medios precedentes.

La paleta de las Capas

Para nuestro análisis final, nos moveremos fuera del menú de Filtro y examinaremos una de las

características clave de Photoshop, que originalmente lo diferenció de otros editores de medios para

“consumidores”: la paleta de Capas. Las propiedad de las Capas fue introducida en Photoshop 3.0,

en 199424. Citando la Ayuda de Photohsop, “las Capas permiten trabajar con un elemento de una

imagen si interrumpir los demás” 25. Desde la perspectiva de las teoría de medios, sin embargo, las

Capas son mucho más que eso. Han redefinido cómo se crean las imágenes e incluso el significado

mismo de “imagen”. Lo que antes era un todo indivisible se ha vuelto una composición hecha de

partes separadas. Esto es un apunte teórico y, al mismo tiempo, la realidad del diseño profesional y

edición de imágenes en nuestra sociedad de software. Cualquier diseño profesional creado con

Photoshop usa múltiples capas (en Photoshop CS4, una imagen puede tener potencialmente miles de

capas). Las capas pueden ser invisibles, pueden jugar el rol de contenedores de otros elementos y

24 http://en.wikipedia.org/wiki/Adobe_Photoshop_release_history. 25 http://help.adobe.com/en_US/Photoshop/11.0/, Octubre 9, 2011.

Page 25: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 25 / 36

pueden ser diferentes versiones de un mismo elemento. Un diseñador puede controlar la

transparencia de cada capa, agruparlas, cambiar su orden, etc.

Las capas modifican la manera en que un diseñador o ilustrador piensan las imágenes. En lugar de

trabajar en un solo diseño (que se altera inmediatamente de manera irreversible), ahora trabaja con

una colección de elementos independientes. Puede jugar con ellos, borrarlos, editarlos, importar

otros, etc., hasta que obtenga un composición final que le satisfaga (o un grupo de versiones

ordenadas en grupos de capas). El contenido y las preferencias de todas las capas queda guardado

en un archivo de imagen, así puede cerrarlo y regresar más tarde para seguir trabajando.

Las capas también tienen otras funciones. Citando una vez más la Ayuda en línea de Photoshop: “En

ocasiones, las capas no tienen un contenido aparente. Por ejemplo, una capa de ajustes tiene

preferencias de color y tono que afectan a las capas que se encuentran abajo. En lugar de modificar

directamente los pixeles, es posible editar una capa de ajuste y dejar los pixeles intactos” 26. En otras

palabras, las capas pueden tener operaciones de edición, que se pueden activar o desactivar, o

reorganizar en otro orden. Una imagen queda entonces redefinida como una composición provisional

de elementos y operaciones de modificación, conceptualmente separadas entre sí.

Podemos comparar este cambio fundamental en el concepto y práctica de la creación de imágenes

con un cambio similar que tuvo lugar en los mapas; de los mapas en papel los Sistemas de

Información Geográfica (GIS). Así como todos los profesionales de los medios usan Photoshop, hoy la

mayoría de los profesionales en contacto con espacios físicos (oficiales, compañías de petróleo,

mercadólogos, equipos de emergencia, geólogos, oceanógrafos, agencias de seguridad, policía, etc.)

usa sistemas GIS. El software de mapas disponible al público, como Google Maps, MapQuest y Google

Earth, puede ser visto como una versión simplificada de los GIS ya que no ofrecen opciones cruciales

para el análisis profesional de espacios (por ejemplo, cruzar datos demográficos, de viaje, de gastos,

para determinar la mejor ubicación de un nuevo supermercado).

Los GIS “capturan, almacenan, analizan, gestionan y presentan datos relacionados con la ubicación”

27 . El concepto central de los GIS son paquetes de capas de datos unidos por coordenadas

espaciales. Queda obvia la conexión conceptual entre el uso de capas en Photoshop y el de otras

aplicaciones de software (aunque los GIS funcionan con cualquier dato que tenga coordenadas

geoespaciales, en lugar de imágenes exclusivamente). Las coordenadas geoespaciales alinean

diferentes conjuntos de datos. Los profesionales construyen “mapas” con software GIS que tienen

cientos o incluso miles de capas. La representación de capas también existe en aplicaciones para el

26 Ibid. 27 http://en.wikipedia.org/wiki/GIS, Octubre 9, 2011.

Page 26: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 26 / 36

público como Google Earth, pero la diferencia es que las aplicaciones profesionales, como ArcGIS, el

usuario puede crear su propio mapa de capas a partir de cualquier fuente de datos, mientras que en

Google Earth los usuarios sólo pueden añadir sus propios datos a la representación de base de la

Tierra, que Google provee y que no puede ser modificada.

Para los GIS, el espacio funciona como una plataforma de medios que puede contener todo tipo de

datos al mismo tiempo: puntos, líneas 2D, mapas, imágenes, video, datos numéricos, texto, ligas.

Otros tipos de estas plataformas también incluyen bases de datos, páginas Web y espacios digitales

3D. En Photoshop, las capas siguen subordinadas conceptualmente a la imagen final (cuando usas la

aplicación, continuamente interpreta todos las capas visibles para mostrar ésta imagen). Así que, a

pesar de que podemos usar un documento Photoshop como una especia de base de datos (una

manera de coleccionar diferentes elementos de imágenes), éste no es el uso ideal (se supone que

debes usar otros programas como Adobe Bridge o Aperture). Los GIS llevan la idea de la

representación basada en capas un paso más allá. Puede ocurrir que las aplicaciones GIS

profesionales no produzcan un mapa con todos los datos. Más bien, un usuario elige los datos que

necesita para trabajar y realiza diversas operaciones con ellos (prácticamente esto significa

seleccionar un subconjunto de capas de datos disponibles). Si un mapa tradicional ofrece una

representación fija, los GIS son un sistema de información: una manera de manejar y trabajar con

grandes cantidades de datos separados pero vinculados (vía un sistema compartido de coordenadas).

De las técnicas de programación a la composición digital

¿Cuál es el origen conceptual de las capas en Photoshop? ¿a cuál categoría pertenecen las capas,

según nuestra taxonomía de técnicas de medios basadas en software? Al pensar en los orígenes de

este concepto y la manera en que se relaciona con otras técnicas de producción de medios, me lleva

a varias direcciones. Primero, las capas no son específicas a editores de imágenes bitmap, como

Photoshop; ésta técnica también se usa en software de imágenes vectoriales (Illustrator), gráficos

animados y composición (After Effects), editores de video (Final Cut), y editores de audio (Pro Tools).

En programas orientados a datos de tiempo (audio, video, animación), las capas son conocidas como

“canales” o “pistas”. Dichos términos indican medios físicos y electrónicos que han sido

implementados en software (switcher análogos de video, grabadoras multi-pista de audio). A pesar del

cambio de vocabulario, las funcionalidad de la técnicas es la misma: una composición final es el

resultado de “añadir” datos (componerlos, técnicamente) almacenados en diferentes capas, canales

o pistas.

La Ayuda de Photoshop explica las Capas de la siguiente manera: “son como hojas de acetato

apiladas. Se puede, ver a través de las áreas transparentes de una capa, las otras capas que están

Page 27: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 27 / 36

abajo” 28. Aunque no se haga referencia explícita, se trata de la técnica estándar de la animación

comercial del siglo XX conocida como animación de celdas (o tradicional, o a mano). De la misma

manera que una cámara montada sobre su trípode, Photoshop está “grabando” continuamente la

imagen a través de la yuxtaposición de los elementos visuales de las capas individuales.

No es asombroso que las Capas de Photoshop estén relacionadas con las técnicas de animación

tradicional de inicios del siglo XX, así como con otras prácticas tales como exposición, proyección de

fondo, mates de cine, perforación de video29. De la misma forma, hay un fuerte vínculo entre las

Capas y la tecnología musical, como son las pistas y la grabación en múltiples de ellas. El inventor de

esta técnicas fue el guitarrista Les Paul, que en 1953 fue comisionado por Ampex para construir el

primer grabador de 8 canales. En los 60’s, las grabadoras multi-pista ya eran usadas por Frank

Zappa, los Beach Boys y The Beatles. Desde ese momento, el uso de múltiples pistas se volvió un

estándar en la grabación y arreglo musical30. Cuando las grabadoras se simularon en software

dejaron de ser caras y espaciosas pero sobretodo se volvieron disponibles en muchas aplicaciones.

Por ejemplo, desde 2004, todas las computadoras Apple vienen con el grabador y editor multi-pista

Garage Band. Otras implementaciones populares son Audacity (libre) y Pro Tools (comercial y

profesional).

Finalmente, hay un indicio que une las Capas con el principio general de la programación de

computadoras modernas. En 1984, dos computólogos, Thomas Porter y Thomas Duff, que trabajan

para Industrial Light and Magic (ILM), la filial de efectos especiales de Lucasfilm, definieron

formalmente el concepto de composición digital en un artículo presentado en SIGGRAPH 31 . El

concepto surgió del trabajo en curso en Star Trek II: The Wrath of Khan (1982). La idea clave era

interpretar cada elemento independiente con un canal mate que tuviera información de valores de

transparencia. Esto permitía a los cineastas trabajar en cada elemento de forma separada y luego

combinarlos en una escena 3D realista.

El artículo de Porter y Duff hace la analogía entre crear una escena final mediante la composición de

elementos 3D y ensamblar módulos de códigos independientes para completar un programa

computacional. Como Porter y Duff lo explican, la experiencia de escribir software de esta manera los

28 http://help.adobe.com/en_US/Photoshop/11.0/, Octubre 9, 2011. 29 El capítulo “Compositing”, de mi libro anterior, presenta una “arqueología” de la composición digital y discute

los vínculos entre ellas. Lev Manovich, The Language of New Media (The MIT Press, 2001). 30 Ver http://en.wikipedia.org/wiki/Multitrack_tape_recorder y

http://en.wikipedia.org/wiki/History_of_multitrack_recording. 31 Thomas Porter y Tom Duff, “Compositing Digital Images,” Computer Graphics vol. 18, no. 3 (Julio, 1984): 253-

259.

Page 28: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 28 / 36

llevó a considerar la misma estrategia para hacer imágenes y animaciones. En ambos casos, las

partes pueden ser re-usadas para hacer nuevas producciones:

La experiencia nos ha enseñado a descomponer grandes cuerpos de código fuente en módulos

separados con el fin de ahorrar tiempo de compilación. Un error en alguna rutina obliga únicamente a

recompilar ese módulo y rápidamente volver a cargar el programa completo. Igualmente, pequeños

errores en coloración o diseño en algún objeto no deben obligar a “recompilar” la imagen completa32.

La misma idea de tratar una imagen como una colección de elementos que pueden ser cambiados

independientemente y re-ensamblados en nuevas imágenes está al fondo de las Capas de Photoshop.

Es importante ver que Photoshop fue desarrollado en el mismo lugar en que había sido definida la

composición digital años antes. Los hermanos Thomas y John Knoll escribieron la primera versión del

programa cuando Thomas hizo una pausa de seis meses de sus estudios doctorales en la Universidad

de Michigan en 1988 y se unió a hermano que estaba trabajando en ILM.

Este vínculo entre una popular técnica de software para la manipulación de imágenes y un principio

general de la programación es muy notable. Es un ejemplo perfecto de cómo los elementos de un

ecosistema de software de medios modernos (aplicaciones, formatos de archivos, interfaces,

técnicas, herramientas, algoritmos usados para crear, visualizar y compartir contenido mediático) no

tienen un solo padre sino dos, cada uno su propio DNA. Por un lado las prácticas culturales y

mediáticas. Por otro, el desarrollo de software.

En resumen, a través del trabajo de muchas personas, de Ivan Sutherland a inicios de los 60’s a los

equipos de ILM, Macromedia, Adobe, Apple y otras compañías de los 80’s y 90’s, los medios se

vuelven software (con todas las implicaciones teórico-prácticas que esta transición implica). Aquí

hemos hablado de los filtros de Photoshop y el menú de Capas para discutir algunas consecuencias,

pero hay mucho más que debe ser descubierto.

Solamente hay software

¿Qué son exactamente los “nuevos medios” y qué medida son diferentes de los “viejos medios”?

Académicos, artistas y periodistas han escrito ampliamente sobre el tema desde los 90’s. En muchas

discusiones, un solo término ha representado todo el rango de las nuevas tecnologías, de las nuevas

posibilidades de expresión y comunicación, de las nuevas formas de comunidad y socialización que

surgen con las computadoras e Internet. Éste término ha sido “lo digital”, que recibió su aprobación

32 Ibid.

Page 29: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 29 / 36

en 1996, cuando el entonces director del MediaLab del MIT , Nicholas Negroponte, compiló sus

columnas en la revista Wired en un libro titulado Being Digital33. Hoy, “lo digital” sigue dominando

nuestra comprensión sobre lo que son los nuevos medios.

Cuando hice búsquedas en Google sobre “digital”, “interactividad” y “multimedia”, el 28 de agosto de

2009, los resultados fueron entre 230 y 240 millones de resultados para cada uno. Una búsqueda en

Google Scholar produce resultados similares: 10,800,00 para “digital”; 4,150,000 para “web”;

3,920.00 para “software”; 2,760,000 para “interactividad”; y, 1,870,000 para “multimedia”.

Claramente, Negroponte estaba en lo cierto, nos hemos vuelto digitales.

Hoy, no es necesario convencer a nadie sobre los efectos transformadores de Internet, el Web y

demás redes tecnológicas en la cultura y sociedad. Sin embargo, sí pretendo convencernos de otro

factor crucial en la revolución computacional y que ha sido menos discutido. Esto es importante para

entender las formas de los medios contemporáneos y lo que son los “medios” actualmente. Ésta es la

cuestión del software.

Ninguna de las técnicas de creación y producción de medios que están asociadas con la computadora

es el resultado directo de los medios “se volvieron digitales”. Todas las nuevas formas de acceso,

distribución, análisis, generación y manipulación vienen del software. Lo que también significa que

son el resultado de decisiones particulares de individuos, compañías y consorcios que desarrollan

software (aplicaciones, codecs de compresión, formatos de archivo, lenguajes de programación).

Algunas de estas decisiones tienen que ver con principios básicos y protocolos que rigen los

ambientes de software modernos: por ejemplo, los comandos “copiar” y “pegar” que vienen con

software basado en GUI, y sus nuevas versiones móviles; o los hipervínculos direccionales

implementados por las tecnologías Web. Otras decisiones son específicas a tipos particulares de

software.

Si alguna técnica particular del software, o una metáfora de interfaz, que se implementa en alguna

aplicación (de escritorio, Web o móvil) se vuelve popular entre los usuarios, ésta aparece rápidamente

en otras aplicaciones. Por ejemplo, después de que Flickr añadió su interfaz de nube de etiquetas,

muchos otros sitios la empezaron a añadir también. La apariencia de ciertas técnicas en las

aplicaciones está, además, relacionada con la economía de la industria del software. Esto se observa

cuando una compañía de software compra otra; se tienden a unificar los paquetes de ambas

compañías. Por ejemplo, en 1995 Silicon Graphics compró dos programas de gráficos 3D (Wavefront

y Alias), y unificó ambas en un nuevo producto Alias|Wavefront. Grandes compañías como Google

compran constantemente software pequeño para añadirlo a la oferta de sus productos. Una de sus

33 Nicholas Negroponte, Being Digital (Vintage, 1996).

Page 30: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 30 / 36

aplicaciones más populares, Google Earth, está basada en software original desarrollado por Keyhole,

Inc. que Google compró en 2004.

A menudo, algunas técnicas desarrolladas con cierto fin, emigran a otras áreas. Las técnicas de

procesamiento de imágenes desarrolladas en segunda parte de los 50’s, para el análisis de

reconocimiento de fotografías, llegó a Photoshop a finales de los 80’s, usadas hoy de manera más

creativa para dar un aspecto más “artístico” a las fotografías.

Todas estas mutaciones de software y “nuevas especies” de software son profundamente sociales, en

el sentido que no surgen de mentes individuales o de algunas cuantas propiedades “esenciales” de

las computadoras digitales. Se trata de software desarrollado por grupos de personas,

comercializados a un gran número de usuarios y, por lo tanto, en mantenimiento constante para

mantenerse competitivos respecto de otros productos del mismo mercado.

En suma: las técnicas, herramientas y convenciones del software de medios no son el resultado de un

cambio tecnológico que va de los medios “análogos” a los “digitales”. El cambio a lo digital permite el

desarrollo posterior de software de medios, pero no determina las direcciones de su evolución. Esto

es el resultado de las ideas intelectuales de diseñadores (Sutherland, Engelbart, etc.); de los

productos reales creados por las empresas de software y de las comunidades open source; de los

procesos culturales y sociales que se establecen cuando la gente las empieza a usar; y, de las fuerzas

del mercado de software.

Esto nos lleva a pensar que los términos “medios digitales” y “nuevos medios” no abarcan de manera

suficiente la unicidad de la “revolución digital”. (Yo prefiero el término “medios computacionales”,

aunque no es muy usado fuera de algunas comunidades de computólogos europeos) ¿Por qué no

funcionan estos términos? Porque todas las nuevas cualidades de los “medios digitales” no están

“adentro” de los objetos media. Más bien, todas ellas existen “afuera” (como comandos y técnicas de

visualizadores de medios, software de producción, animación, composición y edición, motores de

juegos, software de wikis y demás “especies” de software). Mientras la representación digital permite

a las computadoras trabajar con imágenes, texto, formas, sonidos y otros medios, en principio, es el

software el que determina lo que podemos hacer con ellos. Así que en realidad “estamos siendo

digitales”, pero las formas vienen del software.

Al aceptar la centralidad del software debemos cuestionar otro concepto fundamental de la teoría

estética y de medios: las “propiedades de un medio”. ¿Qué significa hacer referencia a un “medio

digital” que tiene “propiedades”? Por ejemplo, ¿es significativo hablar de propiedades únicas en las

fotografías digitales, los textos electrónicos o los sitios Web? En el artículo de Kay y Goldberg, se

establece una similitud entre las palabras “propiedad” y “medio”: “el (texto electrónico) no debe ser

Page 31: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 31 / 36

considerado como una simulación de libro de papel debido a que es un nuevo medios con nuevas

propiedades”. Yo también he usado esta combinación de palabras pero es el momento de indagar

sobre conceptos más precisos.

En sentido estricto, es pertinente, pero no exacto, hablar de propiedades de sitios Web, imágenes

digitales, modelos 3D, representaciones GIS. Los diferentes tipos de contenido digital no tienen

propiedades en sí. Lo que experimentamos como propiedades del contenido de los medios viene del

software usado para acceder, crear, editar y presentar este contenido.

Esto incluye todo el software para crear y visualizar medios, tanto profesional como para el público en

general. El software en cuestión también puede ser el código que hace correr una aplicación en donde

el usuario interactúa o genera directamente el contenido a través de la interfaz (un menú DVD, un

kiosco interactivo, un proyecto de art basado en software). Así, seguiré usando el término

“propiedades” de forma amplia, pero mentalmente se deberá interpretar como “técnicas de software

definidas para trabajar en tipos particulares de ecologías de medios, contenido y datos de medios”

(un ejemplo de “ecología de medios” es el sistema Flickr que incluye subir, etiquetar, organizar,

comentar y compartir imágenes. Un ejemplo de “datos de medios” es una imagen bitmap de 24 bits

almacenada en formato JPG).

Es importante dejar claro que no estamos diciendo que las diferencias entre los distintos tipos de

medios (imágenes bitmap, vectoriales, modelos 3D, texto sin y con formato, animaciones, video,

mapas, sonidos, olores, etc.) quedan completamente determinadas por el software. Obviamente,

éstos tipos de datos de medios tienen varias posibilidades de expresión y representación; pueden

producir diferentes efectos emocionales; son procesados por diferentes redes neuronales en el

cerebro; y corresponden a diferentes procesos y representaciones mentales. Estas diferencias han

sido discutidas durante miles de años (de la filosofía antigua a la teoría estética clásica, al arte

moderno y a la neurociencia contemporánea). Lo que quiero decir en esta libro es algo otra cosa. Por

un lado, el software interactivo añade un nuevo conjunto de operaciones que pueden aplicarse a

todos estos tipos de medios (que, como usuarios, experimentamos como sus nuevas “propiedades”

(editar mediante la selección de partes discretas, distinción entre estructura de datos y su

representación, hipervínculos, visualización, búsqueda, etc.)). Por otro lado, las “propiedades” de un

tipo particular de medio pueden variar drásticamente dependiendo de la aplicación que usamos para

interactuar con él.

Veamos un ejemplo en detalle. Tomemos a la fotografía como tipo de medio. En la era análoga, una

vez que la fotografía quedaba impresa, la información quedaba “fija”. El que viéramos esta fotografía

en casa o en una exhibición, no era gran diferencia. Claro que un fotógrafo podría hacer otra

impresión con mayor o menor contraste o con un papel diferente, pero esto resultaría en un objeto

Page 32: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 32 / 36

físico diferente, es decir, una nueva impresión fotográfica con diferente información (por ejemplo,

algunos detalles se perderían con un mayor contraste).

¿Entonces qué pasa con una fotografía digital? Podemos tomar una foto con una cámara digital

compacta o con una DSLR profesional, o capturarla con un teléfono móvil, o escanearla de un libro.

En cada caso, acabamos con un archivo que contienen un arreglo de pixeles con información de color

(o escala de grises) y metadatos que especifican las dimensiones, el modelo de cámara y demás

datos sobre el disparo. En otras palabras, al final, terminamos con algo que se llama normalmente

“medio digital”: un archivo que contiene números que representan detalles de una escena o de un

objeto.

Sin embargo, a menos que seamos programadores, en realidad nunca interactuamos con estos

números. La mayoría de los usuarios interactúa con archivos de medios digitales usando software. Y

con base en el software, el uso que podemos hacer del medio cambia dramáticamente. El software de

mensajes multimedia (MMS) en los teléfonos portátiles permite visualizar la foto que nos envió un

amigo e incluso reenviarla a otra persona, pero nada más. Los visualizadores gratuitos que tenemos

en las computadoras de escritorios nos permiten más funciones. Por ejemplo, Google Picasa 3.9

(2013) nos deja recortar, colorear automáticamente, reducir ojos rojos, usar varios filtros, etc. En

Picasa también podemos ver la foto en blanco y negro, sin modificar el archivo original, y hacer

acercamientos para examinar detalles. Finalmente, si abrimos la misma foto en Photoshop CS5,

tenemos aún más funciones. Por ejemplo, podemos reemplazar automáticamente los colores o hacer

visible su estructura linear mediante la detección de bordes, etc.

Para resumir, haré un comentario directo. No existe tal cosa como “medios digitales”. Solamente hay

software, aplicado a los medios (o al “contenido”). Dicho de otra manera: para los usuarios que

interactúan con el contenido de medios solamente a través del software, todas las “propiedades de

los medios digitales” quedan definidas por el software, y no están incluidas en el contenido mismo, es

decir, en los archivos digitales. El hecho que los medios sean usados y entendidos de forma diferente

tiene que ver con el desarrollo de un gran número de técnicas, algoritmos, estructuras de datos,

convenciones y metáforas del software. Estas técnicas existen a diferentes niveles: yendo de un

reducido número que son muy generales (“independientes de los medios”), a miles de ellas que son

muy particulares (por ejemplo, algoritmos usados para generar paisajes realistas o software que

extraen la posición de la cámara en secuencias de video para alinear correctamente la composición

de un modelo 3D).

Debido a la multiplicidad y variedad de técnicas de software, no es muy productivo reducir los

“medios digitales” a un pequeño número de nuevas propiedades. Esta reducción solamente sería

posible si pudiéramos organizar estas técnicas jerárquicamente, como diferentes aplicaciones de

Page 33: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 33 / 36

unos cuantos principios generales. Después de trabajar en la cuestión durante diez años (en 1999,

redacté un artículo llamado Software como vanguardia en donde intenté dar una primera taxonomía

de estas nuevas técnicas) me doy cuenta que cualquier jerarquía nos llevaría a una dirección

equivocada. Todas las técnicas cambian la identidad del “medio” (o “dato”), o conjunto de ellos, en

donde se puedan aplicar.

No es porque una técnica aparece en diversos software (diseñados para funcionar en diferentes tipos

de medios) o que otra es específica a un tipo particular, que se vuelve más o menos importante que

las demás. Por ejemplo, ¿se podría decir que la operación de zoom, que existe en procesadores de

texto, visualizadores de medios, software de animación, modelado 3D, navegadores Web, etc. es más

radical que un algoritmo para “esferizar” un modelo 3D, es decir que solo se aplica dicho tipo con

cierto software especial? No creo que podamos medir cualitativamente los efectos prácticos de

ambos tipos de operación en la producción cultural y concluir si una es más importante que otra.

Ambas operaciones alteran cualitativamente el medio sobre el que actúan, y no cuantitativamente. Es

decir, ambas añaden a los medios nuevas cualidades (o “potencialidades”) que no existían

previamente. Un documento de texto en donde nos podemos alejar al grado de ver diferentes páginas

al mismo tiempo tiene una “identidad mediática” diferente de otro en donde no podemos. De forma

similar, la posibilidad, precisamente, de esferizar un modelo virtual 3D es una nueva manera de

trabajar con formas espaciales.

En Software como vanguardia, agrupé las nuevas funciones de los medios digitales en cuatro tipos

según sus funciones: acceso, generación, manipulación y análisis. Hoy, incluso esta simple

clasificación parece problemática, en parte debido a la evolución del software desde 1999 que ha

llevado a una integración gradual de estas funciones. Por ejemplo, cuando un usuario selecciona un

archivo que contiene medios (imágenes, video, música, texto, etc.) el archivo automáticamente se

abre en un programa de visualización/reproducción de medios. Y hoy, todos los estos programas

(Windows Media Player, Apple Quicktime, etc.) vienen con otras funciones básicas de edición.

Entonces, en términos prácticos, no hablamos simplemente de “acceder” a los medios, sin que

tengamos a la mano algunas maneras de “modificarlo (para aclarar las cosas, estoy haciendo

referencia a computadoras personales y aparatos portátiles que no están especializados en la oferta

de contenido digital, como los lectores DVD y los reproductores MP3). Este desvanecimiento de

fronteras entre tipos de funciones es una característica muy importante de los medios basados en

software.

¿Cómo fue que llegamos a esta nueva situación en donde, en lugar de ver/leer el contenido, la

mayoría experimentamos con las capas de las aplicaciones? La respuesta más obvia sería la

adopción de formato numérico como el intermediario universal. Lo llamo intermediario porque al final

del día, los medios deben ser accesibles a nuestros sentidos, es decir, análogos (la onda de presión

Page 34: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 34 / 36

oscilatoria que percibimos como sonido, los niveles de voltaje aplicados a pixeles del LCD que los

hacen aparecer como diferentes tonos y colores, las diferentes cantidades de teñido depositadas en

el papel por las impresoras, etc.). Por esto, los medios de software son una conversión constante de A

a D (análogo a digital) y de D a A (digital a análogo): por ejemplo, de las ondas luminosas a los

números guardados en un archivo, que representa una imagen, y después de vuelta a los niveles de

voltaje que controlan el monitor.

Hay dos niveles de codificación, primero la cuantificación de una señal análoga continua, que resulta

en su representación usando una escala discreta de números (por ejemplo, los 255 niveles usados

comúnmente para representan tonos grises en las imágenes). Después, viene la traducción de esta

representación discreta en un sistema numérico binario (que hace a los medios “incomprensibles” a

la observación directa). La principal razón no es el código binario per se (inventado por el académico

hindú Pingala alrededor de los siglos 5 al 2 AC), ya que es posible aprender cómo convertir una

notación binaria en decimal mentalmente. El problema es la descripción de una imagen, por simple

que sea, conlleva muchos números. Por ejemplo, una imagen 1024 x 768 contiene 786,432 pixeles,

o 2,359,296 valores RGB, lo que hace muy difícil de comprender lo que estos números representan si

los examinamos directamente (diciendo de paso, en parte por estas consideraciones, cualquier

imagen digital puede ser entendida como visualización de información, mediante la visualización de

estos patrones representados numéricamente). Así, usamos constantemente tecnologías para

traducir estos conjuntos de números en representaciones significativas para nuestros sentidos, ya

sea la imagen original que codifican o cualquier otra señal análoga (por ejemplo los valores visuales

que controlan el sonido en performances audiovisuales contemporáneos). Es interesante notar que el

precursor del fonógrafo de Edison en 1877 (el primer aparato para grabar y reproducir sonido) fue el

fonautógrafo de Édouard-Léon Scott de Matinville en 1857 que transcribía sonido en un medio visual.

O sea: la visualización de sonido fue inventada antes que su grabación y reproducción.

Desde sus inicios, las tecnologías que generan y transmiten señales electromagnéticas (como el

gramófono) incluían por lo menos algunos controles para modificarlas (por ejemplo, modificar la

amplitud de una señal). El primer instrumento electrónico popular, inventado por Leon Theremin en

1920, convirtió esos controles en un nuevo paradigma para la ejecución musical. El artista controlaba

la amplitud (el volumen) y la frecuencia (tono) de un sonido acercando o alejando sus manos de las

antenas del aparato.

El software extiende significativamente este principio, añadiendo más controles y más formas de

representar los datos. Por ejemplo, con Word, es posible ver el texto que estoy escribiendo en este

momento como bosquejo o como versión preliminar a su impresión, etc., puedo ver u ocultar notas de

pié de página, puedo hacer un resumen automático, puedo cambiar tamaño y fuente de la tipografía.

Mientras los datos, tal como son representados y guardados en la computadora, no pueden ser

Page 35: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 35 / 36

accedidos directamente con nuestros sentidos, el nuevo modelo tiene ventajas significativas debido a

que los datos pueden ser formateados de diferentes maneras. Este formato puede ser modificado

interactivamente, puede ser guardado junto con los datos e invocado más tarde.

Es posible articular las relaciones entre tecnologías pioneras de grabación y reproducción

electromagnética, desarrolladas a finales del siglo XIX, y el software de medios desarrollado 100 años

después (teléfono: Bell, 1875; fonógrafo: Edison, 1878; televisión: 1884; radio: Fesseden: 1900). Las

primeras tecnologías mantenían la forma original de la representación de los medios: impresión en

bloques de madera, la impresión con tipografía móvil, la imprenta, la litografía, la fotografía. Las

tecnologías del siglo XIX favorecieron la forma de la señal eléctrica, introduciendo una fundamental

nueva capa de medios: la interfaz, es decir, formas de representar (“dar formato”) y controlar la señal.

Y esto cambia la manera en que los medios funcionan: sus “propiedades” ya no están únicamente en

los datos sino también en la interfaz disponible.

El cambio a datos digitales y software de medios, 100 años después, generaliza este principio a todos

los medios. Con todos los tipos de datos codificados como números, sólo pueden ser accedidos

eficientemente por los usuarios mediante aplicaciones. La consecuencia de esto ya la hemos

discutido: todas las “propiedades de los medios digitales” están ahora definidas por el software en

lugar de estar únicamente en el contenido mismo, es decir, los archivos digitales. De esta manera, lo

que es cierto para la grabación de audio, la radio, la televisión, el video, también aplica al texto, las

imágenes y la 3D.

En pocas palabras: los medios se vuelven software.

Podríamos concluir este capítulo aquí, pero es necesario hacer una cosa más. Sería injusto poner

toda la atención en el término “medios digitales” sin tomar en cuenta otro término relacionado.

Actualmente, éste otro término se usa ampliamente y se estudia críticamente: me refiero a “nuevos

medios”.

Ahora que hemos entendido que los “medios” de hoy son en realidad un conjunto de técnicas de

software en constante desarrollo, esto da un nuevo significado al segundo término. No hay un límite

lógico al número de algoritmos que pueden ser inventados; las personas siempre pueden desarrollar

nuevas técnicas de software para trabajar con los medios. Desde esta perspectiva, el término “nuevos

medios” captura adecuadamente esta lógica fundamental del “metamedio computacional”. Los

medios basados en software siempre serán “nuevos”, siempre y cuando se sigan inventando y

añadiendo nuevas técnicas a las que ya existen. Quizá se pueda pensar que no todas las técnicas

Page 36: Capítulo 2 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 2 – El Software Toma el Mando 36 / 36

cambiarán profundamente las forma o función de los medios, pero algunas definitivamente sí lo

harán.

Esta lógica de “expansión permanente” del software de medios sigue la lógica de la ingeniería del

software en su conjunto. Los computólogos de la academia y las empresas de software trabajan con

algoritmos para modificarlos constantemente, llevarlos de un área a otra y diseñar nuevos. Esta

lógica, que también puede llamarse “innovación permanente”, es diferente de la lógica que gobernó

el desarrollo de tecnologías de medios en la era industrial. Tomemos el cine como ejemplo, entre

1890-1900 y la adopción de herramientas de software por la industria cinematográfica. A pesar de

que hubo cambios dramáticos durante el siglo XX en lo que respecta a la construcción de lentes, a las

propiedades y formas de almacenar el celuloide, a las operaciones la cámara y demás elementos de

tecnología cinematográfica, la “capacidad básica de representación” de éstas imágenes fue la misma.

De Edison a George Lucas, las imágenes del cine se han hecho de la misma manera: mediante el

reflejo de la luz de los objetos, vía un lente, sobre una superficie plana. Este proceso de captura crea

tipos particulares de imágenes de la realidad visible. Los objetos son interpretados en una

perspectiva lineal con un punto de fuga; o sea que las propiedades geométricas de cualquier escena,

sin importar su contenido, están sujetas al mismo tipo de transformación: el mismo mapeo que

preserva algunas propiedades de los visible (distorsión de la perspectiva con base en la distancia

entre objetos y observador), en oposición a otras perspectivas (por ejemplo, las proporciones reales

del tamaño de los objetos). Adicionalmente, una vez que la grabación era hecha, la geometría de la

imagen ya no se podía modificar.

Cuando el software llega a la imagen, estas constantes del medio fílmico se vuelven variables.

Aunque parezca menos “real”, la imagen del cine ahora tiene múltiples relaciones con el mundo que

está siendo visualizado. La composición digital permite la inserción de modelos 3D generados a

computadora que no estaba presentes en la escena original. Igualmente, los objetos que estaban

presentes pueden ser borrados. Los panoramas virtuales interactivos, que permiten a los usuarios

moverse en el espacio, se pueden construir automáticamente. En algunos casos, es incluso posible

re-interpretar una secuencia del film como si fuera vista de diferentes perspectivas. Y éstas son sólo

algunas de las nuevas formas en que el software cambian la identidad del cine (estas nuevas

identidades aplican al video también).