revista ingenieria vo.14 no.1

71

Upload: gerson-villa-gonzalez

Post on 04-Mar-2016

246 views

Category:

Documents


8 download

DESCRIPTION

Revista Ingenieria Vo.14 No.1

TRANSCRIPT

Page 1: Revista Ingenieria Vo.14 No.1
Page 2: Revista Ingenieria Vo.14 No.1

Ingeniería1Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

1

1

as sociedades invierten recursos

públicos y privados en la

generación de procesos

investigativos y formativos, los

cuales en algunos casos son fuente de

generación de conocimiento sin importar

si este es o no de carácter científico. Lo

que en general se espera o al menos lo que

se desea, es que este conocimiento sea de

utilidad para la sociedad que los genero o

los patrocino.

Pero, ¿porque no siempre se logra esto?

Las respuestas deben partir de lo que se

entiende por conocimiento útil y de la

posibilidad real de su aplicación. En el

primer caso, se parte que esta utilidad se

manifiesta en la capacidad que tiene el saber

para la resolver problemáticas de las

organizaciones, bien sea en el campo de la

empresa, la familia o la sociedad en general.

Si bien el conocimiento puede resolver

problemas o atender oportunidades, es

posible que las condiciones del sistema en

que se quiera aplicar no lo permitan, es

claro que el conocimiento per se no

resuelve estas problemáticas, sino que es a

través del ser humano que con su potencial

y talento puede realizar su implementación,

desde luego sin desconocer los recursos y

restricciones que implica dicho esfuerzo.

La implementación de los avances

tecnológicos derivados de la producción

de conocimiento se encuentra sujeta a una

serie de limitaciones que condicionan las

Editorial

Ingen

ierí

aIn

gen

ierí

aR

EV

IST

AR

EV

IST

A

L

La utilidad social del conocimiento

potencialidades de las organizaciones

dificultando o, incluso, impidiendo su

desarrollo. Estas limitaciones van desde la

estructura del mundo material, definida

por la lógica y las leyes científicas, hasta las

de los recursos intelectuales, especificados

por la situación del conocimiento científico

y el saber tecnológico, pasando por las

limitaciones derivadas de los recursos

materiales, especificados por su

disponibilidad en calidad y cantidad, sin

desconocer las originadas por las

condiciones sociales, identificadas por las

restricciones jurídicas y políticas.

Entonces se puede trasladar el

interrogante acerca de la poca o mucha

utilidad del conocimiento a la posibilidad

humana de su implementación, campo en

el que no solo se debe entender como una

mera competencia de entendimiento,

claramente identificada como un manejo

de comprensión y sistematización del

saber, si no a un deseo de hacerlo, es decir

que es posible que el grado de satisfacción

del conocimiento frente a las necesidades

de la sociedad pase por el deseo de su

utilización y en este aspecto caen

consideraciones de carácter ético o moral,

tema que desde luego no es el objeto de

esta editorial.

Si se centra el debate de la utilidad del

conocimiento, al entendimiento que se

tiene por parte de las comunidades

responsables de su aplicación, es necesario

Page 3: Revista Ingenieria Vo.14 No.1

Ingeniería2 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

2

2

NUESTRA PORTADA:Ilustración del mapa de la Red NacionalAcadémica de Tecnología Avanzada y de

respositorios digitales.

Diseño gráfico y concepto: Grupo de creativos.

GRUPO EDITORIAL GAIA

los procesos de transformación de las

estructuras y de los procesos, sin

embargo este camino requiere de

demasiados esfuerzos y cambios en los

paradigmas de interacción en las

organizaciones, prueba de ello son el

aumento de la responsabilidad local en

el proceso de toma de decisiones, el

premio a la innovación individual y

colectiva y finalmente, los cambios en

las estructuras y jerarquías de mando.

Muchas han sido las técnicas, filosofías

y estrategias que en los últimos años se

han desarrollado en torno a estos

tópicos y que en su momento fueron

difundidas por los medios apropiados

como las revistas científicas.

Es cierto que se ha adelantado en

esta materia de responsabilidad social

por generar conocimientos útiles en

la Universidad, también lo es, que falta

mucho por hacer pero se requiere de

esfuerzos que partan desde los mismos

organismos de dirección de la

Universidad, es por ello que cada día

la comunidad académica representada

en docentes y estudiantes así como los

entes de gestión, entienden de la

importancia de la generación de

saberes útiles a la sociedad y de esta

forma es que la Revista de Ingeniería

se pone al servicio de la difusión del

quehacer de propios y terceros que

quieren compartir su conocimiento.

Fe de erratas: En la revista Ingeniería Vol. 13 No. 2 año 2008, involuntariamente se publicó que el autor Javier Arturo Orjuela Castro

es Ing. Químico y Researcher member of electromagnetic compatibility group, Universidad Nacional de Colombia. Lo correcto es: Ing.Industrial e Investigador del Grupo de Investigación en Competitividad de la Industria Colombiana - GICIC.

Ingenie

ría

REVIS

TA

PhD. Germán Méndez Giraldo

Director

entonces hablar del papel que juega los

medios de difusión de este

conocimiento y que en mucho son los

encargados de difundirlos permitiendo

de esta forma amplificar los impactos

esperados mediante el incremento de

la posibilidad de impactar a la

sociedad, de esta forma se justifica

todos los recursos empleados en

favores y mantener los medios de

comunicación de conocimiento, en la

medida que impacten y permitan

mejorar la sociedad. Entonces si se

subsanase el problema de la difusión

del conocimiento tampoco se garantiza

la utilidad para la sociedad, ya que se

podría disponer de un cumulo de

conocimientos poco útiles en el campo

del dominio de los actores de la

comunidad, la difusión entonces no

garantiza la calidad del contenido, se

debe también entender como un

problema de calidad y no de cantidad

de conocimiento. Tema crucial a la hora

de evaluar la gestión de los medios de

difusión.

Pero esta calidad en la cobertura de

difusión del conocimiento pasa por

evaluar la capacidad de las

organizaciones para acomodar

rápidamente sus estructuras

organizacionales para aumentar su

velocidad de aprender y con ello

incrementar la flexibilidad para liderar

Page 4: Revista Ingenieria Vo.14 No.1

Ingeniería3Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

3

3

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LAFACULTAD DE INGENIERÍA UNIVERSIDAD DISTRITAL

FRANCISCO JOSÉ DE CALDAS

Publicación admitida en el Índice Nacional de PublicacionesSeriadas Científicas y Tecnológicas de Colciencias

ISSN 0121-750X

○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○

Los textos de los artículos de esta publicaciónpueden ser reproducidos citando la fuente.

Los juicios emitidos por los autores son de su responsabilidad, por lo tanto nocomprometen a la Universidad Distrital, a la Facultad de Ingeniería, ni al Comité Editorial.

Los originales se conservarán como parte del archivo de la Revista Ingeniería.

Director

PhD. Germán Méndez GiraldoProfesor Universidad Distrital

Comité EditorialJuan Lorenzo Ginori U. Central Las Villas Ph.D.

Víctor Hugo Grisales U. Distrital Ph.D.

Miguel Fernando B. U. Politécnica de Valencia Ph.D.

Germán Méndez G. U. Distrital Ph.D.

Ana María Peña U. Distrital Ph.D.

Agustín Vega U. Distrital Msc.

Comité CientíficoJorge Matos Gómez U. Central Las Villas Ph.D.

Pedro José Arco R. U. Central Las Villas Ph.D. Candidato

Marco Aurelio Alzate U. de los Andes Ph.D.

Nelson Pérez C. U. Distrital Ph.D.

Fernando Cancino U. Distrital Ph.D.

Álvaro Betancourt U. U. Distrital Msc.

Contenido

○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○

○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○ ○

REVISTA

Ingeniería

Tels: 482 2061 - 310 [email protected]

UNIVERSIDAD DISTRITALFRANCISCO JOSÉ DE CALDAS

RectorCarlos Ossa Escobar

VicerrectorOrlando Santamaría

Decana Facultad de IngenieríaLaura Marcela Giraldo

Carrera 7 No. 40-53

Teléfono: 323 93 00 ext. 2413

[email protected]

Gestión editorial, Diseño gráfico,Diagramación e impresión

Grupo Editorial Gaia

4

13

18

25

31

47

38

53

59

Página

Diseño de un Metodo Heurístico para

Secuenciación en Sistemas Flow Shop

Estrictos con Buffers IlimitadosDiana Catherine Salamanca Leguizamón, Harry Andrés Ortiz Cabuya,César Amilcar López Bello

Tutorial for the Design of

FIR Digital Filters over FPGACésar Augusto Hernández Suarez, Edwar Jacinto Gómez,Octavio José Salcedo Parra

Aplicabilidad del Modelo de Información de

Edificios en el ámbito geoespacial para

apoyar el Plan Maestro de Desarrollo Físico

y Tecnológico de la Universidad DistritalJosé Nelson Pérez Castillo, José Ignacio Rodríguez Molano

Minimización de la tardanza ponderada

total en talleres de manufactura aplicando

colonia de hormigasOscar Yecid Buitrago S., Rodrigo Britto Agudelo, Gonzalo Mejía D.

Principios para la Formalización

de la Ingeniería de SoftwareSandro Javier Bolaños C., Víctor Hugo Medina G., Luis Joyanes Aguilar

Simulador para el Control

Financiero de las PymesGermán A. Méndez Giraldo, Patricia Parra, José Hurtado Portela

Sistemas de Información para el Control de

Transferencia en una Cadena de ManufacturaJairo Humberto Torres Acosta

Consideraciones metodológicas para la síntesis

automática de procesadores difusos en ANSI-CEdgar Forero, Edgar Garcia, Miguel Melgarejo

Integración de Repositorios Digitales para la

Gestión del Conocimiento en el ámbito

universitario ColombianoLuís Eduardo Cano Olivera, Pedro Enrique Espitia Zambrano,José Nelson Pérez Castillo, Luis Joyanes Aguilar

Vol. 14 No. 1 año 2009

Page 5: Revista Ingenieria Vo.14 No.1

Ingeniería4 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

4

4

1 Ingeniera Industrial de la

Universidad DistritalFrancisco José de Caldas.

2 Ingeniero Industrial de la

Universidad Distrital

Francisco José de Caldas.

3 Investigador principal de

grupo de investigación

MMAI de la Universidad

Distrital, Investigador grupoGIP Universidad Católica

de Colombia, Investigador

CITAD, Universidad de la

Sábana.

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Diana CatherineSalamanca

Leguizamón1

Harry AndrésOrtiz Cabuya2

César AmilcarLópez Bello3

Diseño de un Metodo Heurístico paraSecuenciación en Sistemas Flow ShopEstrictos con Buffers Ilimitados

ResumenEste artículo propone un método heurístico para

resolver el problema de secuenciación para sistemas

Flow Shop Estrictos con Buffer Ilimitados, con una

función objetivo que consiste en la minimización del

tiempo de procesamiento de la última orden en el

sistema, es decir, el makespan.

La solución del problema se basó en la creación de

un método de aproximación que presenta dos fases:

la primera, donde se obtiene una secuencia inicial a

través de una heurística constructiva y la segunda fase,

donde se aplica una heurística de mejora, que toma

como base la respuesta encontrada en la fase anterior,

y a través de una serie de iteraciones se generan

respuestas alternas dentro de las cuales se escoge la

mejor secuencia.

Con la utilización del método propuesto, se

obtuvieron mejores respuestas respecto a las reglas

FIFO, LPT, SPT y el método heurístico de Palmer

para el objetivo trazado, en los indicadores Makespan,

tiempo de flujo, tiempo promedio de flujo,

porcentaje de utilización de máquina, porcentaje de

ocio de máquina, tiempo total de espera y tiempo

promedio de espera.

Palabras clave: Buffer Ilimitado, Eficacia, Flow

Shop Estricto, Indicadores de desempeño, Método

heurístico, Secuenciación.

Designing a heuristic method forSequencing Systems Strong FlowShop with Buffers Unlimited

AbstractThis article proposes a heuristic method for solve

the problem of sequencing for systems with Strong

Flow Shop Buffer Unlimited, with an objective

function that is the minimization the processing time

of the last order in the system, the makespan.

The solution to the problem was based on the

creation of an approximation method or procedure

heuristic, which has two phases: the first where he

gets an initial sequence through a heuristic

constructive, and the second phase which applies a

Heuristic improvement taking as a basis the response

found in the earlier stage, and through a series of

iterations, generated responses alternate, within

which they choose the best sequence.

By using the proposed method, we obtained better

answers regarding the rules FIFO LPT, SPT and the

Palmer Heuristic Method route to the goal, in the

indicators Makespan, flow time, average flow time,

rate of use of machine, percentage dead-time

machine, total waiting time and average waiting time.

Key words: Key words: Buffer unlimited,

effectiveness, Strong Flow Shop, performance

indicators, heuristic method, sequencing.

1. INTRODUCCIÓNEl proceso de planificación y control de la producción

consta de tres etapas, enmarcadas en los siguientes

espacios de tiempo, largo plazo, mediano plazo y corto

plazo. Respectivamente, el resultado obtenido es, la

elaboración de la Planeación Estratégica, el Plan Táctico

y, la Programación Operativa [3].

El trabajo realizado presenta un aporte en una de

las actividades que se realiza para efectuar esa

Programación, la secuenciación de operaciones.

Consiste exactamente, en diseñar y probar un método

heurístico de dos etapas, la obtención de una respuesta

inicial y un algoritmo de mejoramiento de esa

respuesta, a partir de operaciones sobre una matriz de

trabajo, que sugiere un orden para procesar el grupo de

trabajos requerido en una estructura productiva dada.

El análisis hecho en la literatura para abordar el

problema de la secuenciación de operaciones, fue sobre

sistemas de producción basados en una configuración

por lotes, que se procesan bajo un ordenamiento del

tipo Flow Shop Estricto con Buffers Ilimitados, esto

es, que todas las órdenes son procesadas siguiendo

una misma ruta a través de todas las etapas del

proceso, disponiendo de un solo tipo de máquina

para cada proceso, con una capacidad ilimitada de

almacenamiento del producto al final de cada

operación y antes de pasar a la siguiente.

Page 6: Revista Ingenieria Vo.14 No.1

Ingeniería5Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

5

5

Respecto al tema, se encuentra que los estudios

realizados por el profesor Michael Pinedo [5] de la

Universidad de Nueva York en los últimos 25 años

han sido de gran reconocimiento, ya que ha sido

uno de los investigadores con mayor especialización

en el tema de la secuenciación, más conocido en la

literatura como Scheduling, Adicionalmente, se tiene

en cuenta los aportes de otros autores como

Johnson [1954], Ignall y Schrage [1965] con su

algoritmo de Bifurcación y Acotamiento, Campbell,

Dudeck y Smith [1970], heurísticas como la de

Palmer [1965], Ho y Chang [1991] y métodos como

las Reglas de Prioridad. Algunos son muy simples

y cubren parcialmente todas las restricciones del

sistema productivo y otros, en cambio, son

complejos algorítmicamente a medida que el

número de órdenes de trabajo y de máquinas crece,

siendo dispendiosa su utilización.

Como resultado del trabajo que se presenta en

este artículo, se generó una herramienta heurística con

el propósito de facilitar el proceso de secuenciación

de tareas en sistemas de producción tipo Flow Shop

Estrictos con Buffer Ilimitados, para n órdenes de

trabajo y m máquinas, y así lograr un nivel mínimo

esperado de eficacia en términos de los criterios de

desempeño definidos.

Esta herramienta consta de dos etapas. En la

primera, una heurística constructiva, en la cual se

genera una secuencia inicial y, una segunda etapa, en

la que se propone una heurística de mejora, donde

con base en la respuesta inicial, se obtiene un conjunto

de 20 respuestas alternas, para finalizar con la selección

de la mejor de ellas, dado el mejor valor del criterio

objetivo dado.

Para soportar el desarrollo teórico, se desarrolló

una herramienta informática que facilita la utilización

del método propuesto. El nombre de este aporte es

Planifier. Este aplicativo sirvió para ejecutar las pruebas

diseñadas. En general, se ejecutaron 545 pruebas para

la combinación de 11 diferentes valores de m y n. Los

valores obtenidos con Planifier fueron comparados

con seis métodos, tres reglas de prioridad: FIFO,

SPT y LPT; y tres heurísticas: Palmer, CDS y

Enumeración Completa.

2. MÉTODO DE SECUENCIACIÓN

2.1 Supuestos del Método

Utilizando algunas acotaciones aceptadas para el

problema de secuenciación propuestas por Conway,

Maxwell y Miller [Conway 1967] [2], se formalizaron

las siguientes restricciones al funcionamiento del

método propuesto [1], [4], [7]:

1. La estructura de producción es tipo flow shop

estricta. Todas las órdenes tienen la misma ruta

por las máquinas y, el orden de procesamiento de

los trabajos en todas las máquinas es el mismo.

2. Para cada operación i existe una sola precedente

inmediata i-1, exceptuando la primera operación

de cada pieza, que no dispone de precedente.

3. Para cada operación i existe una sola siguiente

inmediata i+1, exceptuando la última operación

de cada pieza, que no tiene siguiente.

4. No existen montajes de piezas (convergencias)

ni particiones en lotes (divergencias); el número

de órdenes entrantes es igual al número de órde-

nes saliente.

5. No pueden solaparse dos operaciones de la misma

pieza en la misma máquina o en máquinas distin-

tas; cada máquina elabora un solo proceso a la vez y

a cada orden se le realiza un solo proceso a la vez.

6. Cada máquina tiene asociada una única opera-

ción.

7. Sólo hay una máquina de cada tipo en el taller.

8. El número de piezas es finito y, tanto las órdenes

como las máquinas se encuentran disponibles

desde el instante inicial 0 hasta T, con T arbitraria-

mente grande.

9. Cuando una operación ha comenzado, debe ter-

minarse antes de empezar otra en la misma má-

quina y no se admiten interrupciones en la mis-

ma; máquina sin mantenimiento ni daños.

10. La única restricción activa en el taller es la relativa

a las máquinas. No existen problemas de dispo-

nibilidad de mano de obra, materiales o de cual-

quier otra índole.

11. El tiempo de duración de la operación de la má-

quina i procesando la orden j es conocido con

anticipación (determinístico). Este tiempo inclu-

ye tiempos de preparación, conclusión, coloca-

ción de piezas, retiro de piezas, tiempos suple-

mentarios, etc.

12. El sistema productivo funciona con Buffers ili-

mitados. Al finalizar cualquier operación en una

de las máquinas esta queda disponible aún si la

siguiente máquina de la ruta no esta disponible,

almacenando este producto en proceso en los

buffers que se encuentran entre las máquinas

(Número de buffers = m-1).

13. La programación de operaciones es hacia adelan-

te, sin fechas de entrega establecidas. Producción

para disponer.

14. No se tienen en cuenta los costos asociados a la

operación.

15. La naturaleza del sistema es estática, conservan-

do constantes los valores de las variables durante

el período de programación.

El métodopropuesto sedesarrolla endos etapas: laprimera con unaheurísticaconstructiva yla segunda conuna heurísticade mejora.

Page 7: Revista Ingenieria Vo.14 No.1

Ingeniería6 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

6

6

3. FORMULACIÓN

3.1 Objetivo

Como se mencionó anteriormente, el objetivo del

problema es minimizar el Makespan: Mín Cmáx,

siendo Cmáx el instante en el que termina el

procesamiento de la n-ésima orden en la m-ésima

máquina.

3.2 Referentes

i : Subíndice de referencia para las máquinas del sis-tema productivo; i = 1, 2,.., m

j: Subíndice de referencia para las órdenes de traba-jo; j = 1, 2,.., n

j’: Subíndice de referencia para las órdenes de traba-jo; j’ = 1, 2,.., n

Es utilizado para indicar la segunda orden de unapareja de órdenes, separadas con una (_) [ej. ordenj_orden j’]. Se diferencia de una combinación demáquina-orden, porque en general no utilizaseparador y cuando lo requiere, se coloca (,) [ej.

Máquina i, orden j].

3.3 Parámetros

m: Número de máquinas definidas para el sistemaproductivo.

n: Número de órdenes de trabajo definidas a proce-sar en el sistema productivo.

Tij: Duración de la operación a realizar en la máquinai sobre el trabajo j.

R: Ruta de trabajo u ordenamiento de las máquinaspara el procesamiento de las órdenes.

O: Orden en que son recibidas en el sistema los tra-bajos por parte del cliente. (Necesario para la com-

paración con la regla de prioridad FIFO).

3.4 Variables

S: Secuencia de procesamiento de las órdenes de tra-bajo, representada en un vector de n elementosordenados por el criterio de iniciación.

Iij: Momento o instante del tiempo en el que iniciael procesamiento de la orden de trabajo j en lamáquina i.

S: Secuencia de procesamiento de las órdenes de

3.5 Ecuaciones de equilibrio

1. Iij: Instante en el que inicia el procesamiento en lamáquina i de la orden j (1).

Tij:: Duración de la operación a realizar en la máqui-na i sobre la orden j.

2. Fij Instante en el que finaliza el procesamiento dela orden j en la máquina i (2).

Se denominacadena de

valor “alconjunto de

agenteseconómicos

quecontribuyen

directamente ala producción,procesamientoy distribución

hasta elmercado de un

determinadoproducto” [4].

(1)

(2)

Iij: Instante en el que inicia el procesamiento en lamáquina i de la orden j.

Tij: Duración de la operación a realizar en la máquinai sobre la orden j.

Cj: Tiempo de terminación de la orden j en la m-ésima máquina.

3. Ti Tiempo total efectivo de operación de la má-quina i procesando las n órdenes (3).

(3)

Tij: Duración de la operación a realizar en lamáquina i sobre la orden j.

n: Número de órdenes configuradas.

4. Tj Tiempo total efectivo de operación de la ordenj en su procesamiento por las m máquinas (4).

Tij: Duración de la operación a realizar en la máqui-na i sobre la orden j.

m: Número de máquinas configuradas.

3.6 Indicadores de Desempeño

1. Cmax, Tiempo de Completamiento ó

Makespan: Tiempo en el que termina de serprocesada la última orden en el sistema ó, tiempomáximo de terminación de todas las órdenes (5).

Objetivo: Minimizar.

(4)

(5)

Cj: Tiempo de terminación de la orden j en la m-ésima máquina.

2. Tt, Tiempo de Flujo: Suma de la finalización enla m-ésima máquina de las n órdenes (6).

Objetivo: Minimizar.

(6)

Fij: Instante en el que finaliza el procesamiento de laorden j en la máquina i.

Cj: Tiempo de terminación de la orden j en la m-ésima máquina.

3. Tp, Tiempo Promedio de Flujo: Promedio dela finalización en la m-ésima máquina de las nórdenes (7).

Page 8: Revista Ingenieria Vo.14 No.1

Ingeniería7Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

7

7

Objetivo: Minimizar. permanece cada orden de trabajo j en cada una de las

máquinas i: Tij (12). Esto se hace en una matriz

llamada T, de tamaño m filas (máquinas) y n

columnas (órdenes) cuyos elementos son Tij.

(7)

TF: Tiempo de flujo.

n: Número de órdenes configuradas.

4. MU, % Utilización de Máquina: Es el porcen-taje del tiempo de operación que las máquinas seencuentran procesando las n órdenes (8).

Objetivo: Maximizar.

(8)

Tij: Duración de la operación a realizar en la máquinai sobre la orden j.

n: Número de órdenes configuradas.

Cmáx: Makespan.

5. MO, % Ocio de Máquina: Es el porcentaje deltiempo de operación que las máquinas no seencuentran procesando las órdenes (9).

Objetivo: Minimizar.

(9)

% MU: Porcentaje de utilización de máquina.

6. Wt, Tiempo Total de Espera: Suma del inicioen la primera máquina de la operación de las nórdenes más, la suma del tiempo de diferenciaentre la finalización en cualquiera de las máquinasy el inicio en la inmediatamente siguiente paratodas las órdenes (10).

Objetivo: Minimizar.

%MO=1-%MU

(10)

Iij: Instante en el que inicia el procesamiento en lamáquina i de la orden j.

Fij: Instante en el que finaliza el procesamiento de laorden j en la máquina i.

7. Wp, Tiempo Promedio de Espera: Promediodel inicio en la primera máquina de la operaciónde las n órdenes (11).

Objetivo: Minimizar.

Wt: Tiempo total de espera.

n: Número de órdenes configuradas.

4. HEURÍSTICA CONSTRUCTIVA

4.1 Paso 0: Información de entrada

Los primeros parámetros a definir deben ser: m,

n, R y O, para luego relacionar el tiempo que

Wp = Wtn

(11)

Tabla I. Matriz T

Elaboración autores

A B J n

1 T1A T1B T1j T1n

2 T2A T2B T2j T2n

i TiA TiB Tij Tin

m TmA TmB Tmj Tmn

......

QU

INA

S

ÓRDENES DE TRABAJO

MATRIZ [Tij]Matriz T

4.2 Paso 1: Tiempo total en

máquina de cada orden

A partir de los datos anteriores, se calcula el tiempo

total de operación para cada una de las órdenes en su

paso por las máquinas (13).

(12)Tij=tiempo

orden j en máquina i

4.3 Paso 2: Matriz Cmáx {j_j‘}

Este paso es el origen del trabajo de investigación.Para recrear la metodología diseñada, supóngase unrompecabezas de n piezas lineales, donde el objetivomás allá de lograr una figura preestablecida, está enlograr que las piezas con sus diversas formas encajenuna a otra, minimizando el espacio que quede entrelas puntas de una pieza y el espacio de otra.

Si un problema macro es abordado aisladamentepor cada uno de sus componentes y, para cada unode ellos se obtiene un óptimo, que sería el “óptimolocal”, la implementación de ellos en conjunto nonecesariamente corresponde al óptimo del ejercicio,aún así, es una buena solución factible.

Eso mismo sucede con esta metodología, ya que sebusca encontrar la pareja de piezas del rompecabezasque mejor encaja y, a este nuevo componente,compuesto por dos piezas, identificar la tercera piezaque mejor encaja. A este componente de tres piezas,se busca la pieza que mejor encaje, y así sucesivamentehasta que el componente complete sus n piezas.

En el problema planteado en la investigación no haypiezas de rompecabezas si no órdenes de trabajo, conlas cuales se desea hacer exactamente lo mismo,ordenarlas de tal forma que se minimice el tiempo (en elejemplo era el espacio) que se inutiliza en las máquinas.

Para determinar el ordenamiento, se efectúa el

cálculo de máxima finalización para todas y cada una

(13)

Page 9: Revista Ingenieria Vo.14 No.1

Ingeniería8 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

8

8

de las posibles permutaciones de parejas, registrando

los resultados en una Matriz cuadrada C de tamaño

n, cuyos elementos de la diagonal principal están

penalizados con un valor muy grande M; esta

penalización se debe a que no es posible la existencia

de una pareja de órdenes cuyos elementos son la

misma orden.

El cálculo se realiza utilizando la siguiente

metodología, planteada por los autores para facilitar

el desarrollo. Supóngase que se tienen dos órdenes

de trabajo, A y B:

a. Para la primera orden de la pareja, en este caso la A,

se tiene que el tiempo de inicio en la primera má-

quina es 0 y, en las siguientes máquinas es igual al

de finalización en la máquina inmediatamente an-

terior (14). De la misma manera, el instante de

finalización en la i-ésima máquina es igual a la suma

de los tiempos de operación desde la primera

máquina hasta la i (15).

con valor igual al mínimo Cj_j‘ se recurre al siguiente

criterio de desempate:

Entre los elementos Cj_j‘ empatados, calcular el

indicador de tiempo total en máquina para la pareja

(j_j‘) de la forma Tj_ j ‘

= Tj + T

j ‘ , seleccionando el

elemento correspondiente al mayor Tj_j‘. Este criterio

se basa en el índice % MU, porcentaje de utilización

de máquina (18); entre las combinaciones (j_j‘)

empatadas, los valores de m y Cj_j‘ son constantes,

por tanto para maximizar el valor de % MU, se debe

buscar el mayor Tj_j‘ que haga más grande la

expresión.

Tabla II. Matriz X, que indica elmakespan de cada una de las

parejas de órdenes.

Elaboración autores

(14)

b. Para el caso de la segunda orden de la pareja, en

este caso B, se tiene que el instante de inicio en la

i-ésima máquina, es igual al máximo valor entre

el instante de finalización de la orden en la má-

quina inmediatamente anterior y, el de finaliza-

ción de la anterior orden, A, en la máquina en la

(15)

(16)

(17)

(18)

• De persistir el empate entre algunos elementos,

se asocia un número aleatorio con distribución

uniforme (mayor o igual a 0 y menor que 1) a

cada mínimo Tj_j‘, seleccionando la pareja (j_j‘)

con mayor aleatorio asociado. Los valores de la

pareja (j_j‘) representan el primer elemento del

vector S.

4.5 Paso 4: Agregar elementos a vector S

Una vez identificada la pareja a ingresar al vector

S, se debe validar si esta es la primera en ingresar o

no. Para el primer caso, simplemente esta

combinación de elementos (j, j´) es adicionada. Para

el segundo caso, se debe determinar si la pareja de

elementos ingresa al comienzo o al final del vector.

Esto se hace con el siguiente criterio:

Sea α el valor del primer elemento del vector S y Ωel último elemento. Si j´ = α => j va al comienzo

de S precediendo al elemento j´; de lo contrario, es

decir, j = Ω => j´ va al final de S posterior al

elemento j.

4.6 Paso 5: Actualización de la matriz C

Una vez ingresado el elemento (j, j´) al vector S,

se debe actualizar la matriz C de modo que al iterar

el procedimiento no se generen incoherencias. Se

propone lo siguiente:

1. Eliminar ó penalizar la fila j de la matriz C:

con ello se evita obtener un nuevo elemento

(j, y), que al ingresar al vector S generaría un

conjunto de elementos repetitivos, rompien-

do con la naturaleza de la secuencia objetivo.

j e y son valores de órdenes entre 1 y n.

2. Eliminar ó penalizar la columna j´ de la matriz

C: se busca la no obtención de un nuevo ele-

mento (x, j´) que al ingresar al vector S generaría

un conjunto de elementos repetitivos, rompien-

do con la naturaleza de la secuencia objetivo.

cual se desea iniciar la operación, i.

Por su parte, el instante de finali-

zación en cualquiera de las máqui-

nas, al igual que con la orden A, es

igual al instante de inicio en esa

máquina más, el tiempo de opera-

ción correspon-diente de la orden.

En las relaciones (16) y (17), se

muestra el caso para orden j’ en la

primera máquina.

Para visualizar lo descrito, la Tabla

II muestra ordenadamente el

análisis permitiendo entender la

metodología propuesta, a través de

la Matriz denominada X.

4.4 Paso 3: Mínimo Cj,j‘

en matriz C.

Se debe buscar el elemento de la

matriz C con menor valor. En caso

de que haya más de un elemento

Page 10: Revista Ingenieria Vo.14 No.1

Ingeniería9Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

9

9

j‘ y x son valores de órdenes entre 1 y n.

3. Eliminar ó penalizar el elemento (j´,j) de la ma-

triz C: al haber ingresado al vector S el elemento

(j,j´), la pareja (j´,j) causaría una incongruencia de

forma en la secuencia objetivo.

4.7 Paso 6: Mínimo Cj,j‘ en matriz C

Manteniendo la consistencia en la búsqueda de la

secuencia, la siguiente pareja a ingresar debe ser una

que contenga entre sus elementos el primero ó el

último valor del vector S. Por ello la búsqueda se

efectuará solamente en la fila j= Ω y la columna j´= αde la matriz C modificada, que llamaremos C ’. De

los valores de los elementos de esta fila y esta columna

se selecciona el menor, siguiendo con el paso 4; de

haber empates se emplea la metodología expuesta

en el paso 3.

4.8 Paso 7: Criterio de parada

La iteración termina cuando la cantidad de elementos

en el vector S es igual a n. A la vez esto se refleja, en que

al concluir el paso 5 en la k-ésima etapa del proceso, la

matriz C tiene todos sus n x n elementos penalizados.

En este momento se tiene que el vector corresponde a

la respuesta (secuencia) inicial.

5. HEURÍSTICA DE MEJORA

5.1 Paso 8: Algoritmo de respuestas alternas

En la ejecución de pruebas preliminares se detectó

que esta respuesta estaba distante del objetivo en una

cantidad importante de veces, por tal motivo se diseñó

un algoritmo que permite la obtención de respuestas

alternas, para compararlas entre sí por el valor del

criterio objetivo y seleccionar entre ellas la mejor.

Parte de un análisis de sensibilidad sobre la

respuesta inicial, y dos iteraciones. En cada iteración

se obtienen cuatro secuencias alternas por cada

secuencia principal. Es decir, que al finalizar la iteración

1 se obtienen 5 secuencias, la inicial y cuatro alternas,

y, al finalizar la iteración 2 se obtienen 21 secuencias,

las ya descritas y 16 alternas de las cuatro obtenidas

en la iteración anterior.

Recordemos que en la Primera Etapa ingresaron al

vector S, n-1 parejas de valores, de modo que el

“análisis de sensibilidad” que se propone consiste en

determinar esa n-ésima pareja de valores que debería

entrar a la secuencia. Siguiendo la metodología

propuesta en esa etapa, debe ingresar una pareja que

su primer elemento sea el último de S ó, que su

segundo elemento sea el primero de S.

Sea α el valor del primer elemento del vector S y

Ω el último elemento. Para una secuencia cualquiera

S_0, se encuentra cual es el elemento (j, j´) con j = Ωy el elemento (j, j´) con j´ = α con menor valor, de

modo que cada uno de ellos es un candidato a

ingresar a la secuencia.

Para el primer caso, j = Ω, se obtienen dos secuencias

alternas así:

S_1: En la secuencia S “pivotear” el elemento j´ a la

última posición.

S_2: En la secuencia S “pivotear” el elemento j a la

posición inmediatamente anterior donde se en-

cuentra j´.

En el segundo caso, j´ = α, se obtienen otras dos

secuencias alternas así:

S_3: En la secuencia S “pivotear” el elemento j a la

primera posición.

S_4: En la secuencia S “pivotear” el elemento j´ a la

posición inmediatamente siguiente donde se encuen-

tra j.

Esta es la primera iteración. En la segunda, se repite

el procedimiento señalado a S_0, pero para S_1, S_2,

S_3 y S_4, obteniendo como respuestas alternas de

S_5 a S_20. Las 21 secuencias se enlistan, detectando

cuales de ellas están repetidas para solo tener en cuenta

en el siguiente paso las únicas.

Ejemplo:

S_0: D-E-C-A-B En este caso α = D, Ω = B

En la matriz C se busca el elemento (j, j‘) de menor

valor en la fila B y el de menor valor en la columna D.

En el problemaplanteado nohay piezas derompecabezassi no órdenesde trabajo, conlas cuales sedesea hacerexactamente lomismo,ordenarlas detal forma que seminimice eltiempo.

j = Ω; menor valor encontrado (j, j‘) = (Ω, j‘) = (B, E)

S_1: D-E-C-A-B = D – C – A – B – E

S_2: D- E-C-A-B = D – B – E – C – A

j´ = α; menor valor encontrado (j, j‘) = (j, α) = (A, D)

S_3: D-E-C-A-B = A – D – E – C – B

S_4: D-E-C-A- B = E – C – A – D – B

Con cada una de estas cuatro respuestas alternas,

S_1 a S_4, se efectúa el mismo proceso que el realizado

con S_0, de modo que se obtengan otras 16

respuestas alternas, de S_5 a S_20.

Para S_1: D–C–A–B–E, se encuentra α = D, Ω = E

En la matriz C se busca el elemento (j, j‘) de menor

valor en la fila E y el de menor valor en la columna D.

Page 11: Revista Ingenieria Vo.14 No.1

Ingeniería10 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

10

10

j = Ω; menor valor encontrado (j, j‘) = (Ω, j‘) = (E, C)

j´ = α; menor valor encontrado (j, j‘) = (j, α) = (A, D)

5.2 Paso 9: Selección de la mejor Solución

Del conjunto obtenido en el paso anterior, se hace

el cálculo del indicador objetivo, mínimo makespan,

para cada una de ellas, seleccionado la secuencia que

mejor indicador obtenga. El cálculo se obtiene

aplicando las ecuaciones de equilibrio de iniciación y

finalización descritas.

Si el makespan de más de una de las 21 respuestas

es igual, se calcula a ellas el indicador Tiempo de Flujo

y se selecciona la respuesta con menor valor en este

segundo indicador. Si persiste el empate en dos ó

más respuestas, se les calcula el Porcentaje de

Utilización de Máquina, escogiendo entre las

secuencias que persiste la igualdad la secuencia con

mayor porcentaje. Por último y de darse como caso

excepcional un equilibrio en los tres indicadores, se

calcula el Tiempo Total de Espera para las secuencias

cuyas respuestas han estado empatadas; se selecciona

la que tenga menor este indicador ó de lo contrario se

asigna un número aleatorio (0,1] a cada una y se

escoge la que mayor valor se le haya asignado.

6. RESULTADOS

Después de analizar individualmente el grado de

eficacia de Planifier para cada indicador con respecto a

los diferentes métodos de solución, se procedió a

realizar un análisis conjunto de la eficacia involucrando

todos los indicadores de desempeño y al mismo

tiempo los métodos de comparación, con el fin de

observar el rendimiento del método heurístico

propuesto. Como se mencionó anteriormente, para el

Tiempo de Espera sólo se tuvo en cuenta las

heurísticas. También se escogieron los resultados de

Tiempo Promedio de Flujo y Tiempo Promedio de

Espera, ya que su comporta-miento es equivalente al

Tiempo de Flujo y Tiempo de Espera respectivamente.

Los resultados pueden observarse en la Figura 1.

En cadaiteración se

obtienencuatro

secuenciasalternas por

cadasecuenciaprincipal.

Figura 2. Tendencia de la Eficaciarespecto a variaciones de n.

Figura 3. Tendencia de la Eficaciarespecto a variaciones de m.

Figura 1. Comportamiento General del Desempeñode Planifier en Relación a Métodos de Comparación.

Para analizar el comportamiento del método

respecto a variaciones en los valores de m y de n, se

presentan las Figuras 2 y 3. Allí se muestra como se

ve afectado el desempeño del método propuesto

respecto al comporta-miento de los valores de m y n

definidos para el indicador Makespan, que es el

indicador que se quiere minimizar.

5.3 Análisis Estadístico de Resultados

Para calcular los intervalos de confianza de la eficacia

esperada de Planifier respecto a los métodos de

comparación seleccionados, con un 98% de confianza,

se elabora una regresión para cada método

comparando, las eficacias observadas en cada una de

las pruebas realizadas con el valor de las variables

exógenas m y n.

5.3.1 Eficacia respecto a heurística CDS

• De acuerdo a la prueba con el estadístico Fisher,

al menos un parámetro es diferente de 0.

• El coeficiente de intercepción es significativo in-

dividualmente en el modelo.

• El coeficiente de la variable m no es significativo

individualmente en el modelo.

• El coeficiente de intercepción n no es significati-

vo individualmente en el modelo.

• La eficacia de Planifier respecto a la heurística CDS

esta entre el 98.42% y el 99.65% con un 98% de

confianza.

5.3.2 Eficacia respecto a heurística de Palmer

• De acuerdo a la prueba con el estadístico Fisher,

al menos un parámetro es diferente de 0.

• El coeficiente de intercepción es significativo in-

dividualmente en el modelo.

• El coeficiente de la variable m no es significativo

individualmente en el modelo.

Page 12: Revista Ingenieria Vo.14 No.1

Ingeniería11Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

11

11

• El coeficiente de intercepción n no es significati-

vo individualmente en el modelo.

• La eficacia de Planifier respecto a la heurística de

Palmer esta entre el 101.29% y el 102.77% con un

98% de confianza.

5.3.3 Eficacia respecto al método

de Enumeración Completa

• De acuerdo a la prueba con el estadístico Fisher,

al menos un parámetro es diferente de 0.

• El coeficiente de intercepción es significativo in-

dividualmente en el modelo.

• El coeficiente de la variable m es significativo

individualmente en el modelo, impactando la

eficacia esperada entre el -0.01% y el 0.02% por

cada máquina que tenga el sistema.

• El coeficiente de intercepción n no es significati-

vo individualmente en el modelo.

• Dado que m afecta la eficacia esperada, se tomó

ésta como el promedio de las observadas, que es

del 97.67%.

5.3.4 Eficacia respecto a la regla de prioridad FIFO

• De acuerdo a la prueba con el estadístico Fisher,

al menos un parámetro es diferente de 0.

• El coeficiente de intercepción es significativo in-

dividualmente en el modelo.

• El coeficiente de la variable m no es significativo

individualmente en el modelo.

• El coeficiente de intercepción n no es significati-

vo individualmente en el modelo.

• La eficacia de Planifier respecto a la heurística de

Palmer esta entre el 114.04% y el 119.88% con un

98% de confianza.

5.3.5 Eficacia respecto a la regla de prioridad LPT

• De acuerdo a la prueba con el estadístico Fisher,

al menos un parámetro es diferente de 0.

• El coeficiente de intercepción es significativo in-

dividualmente en el modelo.

• El coeficiente de la variable m no es significativo

individualmente en el modelo.

• El coeficiente de intercepción n no es significati-

vo individualmente en el modelo.

• La eficacia de Planifier respecto a la regla LPT está

entre el 117.57% y el 124.38% con un 98% de

confianza.

5.3.6 Eficacia respecto a la regla de prioridad SPT

De acuerdo a la prueba con el estadístico Fisher,

todos los parámetros son iguales a 0. Las conclusiones

se desvirtúan, ya que la variable endógena no es

explicada las variables exógenas. Sin embargo se

visualiza que:

• El coeficiente de intercepción es significativo in-dividualmente en el modelo.

• El coeficiente de la variable m no es significativoindividualmente en el modelo.

• El coeficiente de intercepción n no es significati-vo individualmente en el modelo.

• La eficacia de Planifier respecto a la regla SPT estaentre el 112.61% y el 119% con un 98% de con-

fianza.

7. CONCLUSIONES

• El método propuesto facilita el proceso de

secuenciación en sistemas tipo Flow Shop Es-

trictos con Buffers Ilimitados, ya que funciona

con un algoritmo simple y sencillo en su estruc-

tura, que es fácilmente soportado por una aplica-

ción informática y, con un nivel de eficacia espera-

do superior al 97% respecto a cualquier método

y, superior al 110% respecto a cualquier regla de

prioridad, con un 98% de confianza.

• Con la utilización del método propuesto Planifier

en problemas de secuenciación de operaciones para

Sistemas del tipo Flow Shop Estrictos con Buffers

Ilimitados, se obtienen mejores respuestas res-

pecto a las reglas FIFO, LPT, SPT y el método

heurístico de Palmer para el objetivo trazado,

minimización ó maximización según correspon-

da, con un 98% de confianza, en los indicadores

Makespan (Cmáx), tiempo de flujo (Tt), tiempo

promedio de flujo (Tp), porcentaje de utilización

de máquina (MU), porcentaje de ocio de máquina

(MO), tiempo total de espera (Wt) y tiempo pro-

medio de espera (Wp).

• La herramienta informática que soporta la aplica-

ción de el método heurístico Planifier, tiene capa-

cidad de procesamiento para valores de m entre 2

y 150, y para valores de n entre 3 y 150, en una

máquina con sistema Microsoft® Windows XP,

Profesional versión 2002, Service Pack 2 con

procesador Intel® Pentium® 4, CPU 2.39 GHz,

496 MB de RAM.

• Con ese mismo equipo se pueden procesar me-

diante el método de Enumeración Completa,

que es el detalle de todas las posibles combina-

ciones de secuencia, hasta ejercicios con valores de

m no mayores a 10 y n no mayores a 15.

• El algoritmo del método de Planifier solo es efi-

ciente algorítmicamente para valores de n mayo-

res a 4, ya que el selecciona la respuesta entre un

conjunto de 21 secuencias y, por ejemplo, para n

= 4 las posibles secuencias son apenas 16.

• Para valores mayores o iguales a 5, el algoritmo es

muy eficiente, ya que sin importar el número de

Page 13: Revista Ingenieria Vo.14 No.1

Ingeniería12 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

12

12

n, que es quien determina la cantidad de posibles

secuencias, solo hay selección entre un número

fijo equivalente a 21.

• El desempeño observado del método Planifier,

medido en términos de las respuesta obtenida

para los indicadores Cmáx, Tt, Tp, MU, MO, Wt

y Wp, es muy similar al de la heurística CDS de

Campbell, Dudeck y Smith, distando la eficacia

en tan solo un -1.9% en promedio, con un máxi-

mo de -1.58% y mínimo de -0.35%, con el 98%

de confianza.

• El rendimiento comparativo de Planifier tiene a

primera vista (gráficamente) un comportamien-

to escalonado de un peldaño decreciente, respec-

to a los valores de las variables m y n; Para valores

de n menores a 25, la respuesta de Planifier es en

promedio mejor respecto de 5 a 10%; para valo-

res mayores a 25, la respuesta promedio decae en

eficacia y tiende a ubicarse en un 98% para valores

cercanos a 100, donde se presenta la convergen-

cia; Para valores de m menores a 15, la respuesta

de Planifier es en promedio mejor respecto de 5 a

10%; para valores mayores a 15, la respuesta pro-

medio decae en eficacia y tiende a ubicarse en un

98% para valores cercanos a 25, donde se presen-

ta la convergencia.

• La evidencia estadística que se deriva de este estu-

dio, muestra que el comportamiento de la eficacia

esperada, con un 98% de confianza, no es expli-

cada por los valores de m y de n, ya que esos

parámetros son no significativos en las pruebas

realizadas. Aún así se presentó el análisis gráfico,

porque se consideró que esos parámetros si de-

terminan la calidad de la respuesta cuando su va-

lor es alto.

• Respecto al método de Enumeración Completa,

que es el detalle de todas las posibles combina-

ciones de secuencia, con Planifier se obtiene una

respuesta desmejorada del 1.9% en promedio.

Lo que significa, que los resultados con Planifier

distan del óptimo el 1.9% en promedio.

• Solo en comparación con este método, se obtu-

vo significancia en el parámetro m, como variable

explicativa de la eficacia esperada, validando lo

expuesto en el punto anterior respecto a la in-

fluencia de m y n en la calidad de la respuesta que

se obtiene con Planifier.

REFERENCIAS BIBLIOGRÁFICAS[1] Alemán González. Estudio y aplicación del algoritmo Lomnicki

Pendular al problema de Flow Shop sin pulmones intermáquina.Laboratorio de Organización industrial. Universidad Politécnicade Cataluña. España 2004.

[2] Conway R. W., W.L. Mazwell, L.W. Miller. Theory of Scheduling.Adison-Wesley, Reading, MA, 1967.

[3] José Domínguez Machuca. Dirección de operaciones. Aspectostácticos y operativos en la producción y los servicios. Ed. Mc GrawHill, Madrid, 1998.

[4] Ruben Ruiz. Evaluación de heurísticas para el problema del tallerde Flujo. XXVII Congreso Nacional de stadística e InvestigaciónOperativa. Universidad Politécnica de Valencia. España. 2003.Disponible en www.upv.es/gio/rruiz/files/SEIO2003_heu.pdf

[5] Michael Pinedo. Scheduling: theory, algorithms and system. Ed.Prentice Hall, 2002

[7] Agustín Alemán. Estudio y Aplicación del algoritmo LomnickiPendular al problema Fm/Block/Fmax. Laboratorio de Organi-zación industrial. 2005. Disponible en https://upcommons.upc.edu/pfc/bitstream/2099.1/2645/1/34561-1.pdf

Diana Catherine Salamanca L.Ingeniera Industrial Universidad Distrital Francisco José de Caldas,

2007. Proyecto de grado meritorio por el Diseño de un Método

Heurístico de Secuenciación en Sistemas Flow Shop Estrictos con

Buffers Ilimitados, bajo la dirección del docente MsC. Cesar A. López

Bello. Actualmente cursando la Especialización de Gestión de Pro-

yectos de Ingeniería en la Universidad Distrital, y ejerciendo como

Ingeniera Investigadora del Centro de Investigación y DesarrolloTecnológico de la Industria Electro Electrónica e Informática.

[email protected]

Harry Andrés Ortiz CabuyaIngeniero Industrial Universidad Distrital Francisco José de Caldas,

2007. Proyecto de grado meritorio por el Diseño de un Método

Heurístico de Secuenciación en Sistemas Flow Shop Estrictos con

Buffers Ilimitados, bajo la dirección del docente MsC. Cesar A. López

Bello. Actualmente se desempeña como Auxiliar de informática vin-

culado al proyecto CIMA en Alpina S.A. [email protected]

César Amilcar López BelloMagister en Ingeniería Industrial, Universidad de los Andes. Especia-

lista en Ingeniería de Producción, Universidad Distrital Francisco José

de Caldas. Ingeniero Industrial Universidad Distrital Francisco José

de Caldas. Profesor Asociado, Facultad de Ingeniería UniversidadDistrital. Director de la Maestría en Ingeniería Industrial, Universidad

Distrital. Investigador principal del grupo de Investigación MMAI de la

Universidad Distrital, Investigador Grupo GIP, Investigador CITAD,

Centro de Investigaciones en tecnologías avanzadas de decisión,Universidad de la Sábana. [email protected]

Page 14: Revista Ingenieria Vo.14 No.1

Ingeniería13Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

13

13

1 Magíster en Ciencias de la

Información y las Comuni-

caciones de la UniversidadDistrital. Docente de Plan-

ta de la Universidad

Distrital.

2 Estudios de Maestria enCiencias de la Información

y las Comunicaciones de

la Universidad Distrital.

Docente de la Universidad

Distrital.

3 Docente de Planta de la

Maestría en Ciencias de la

Información y las Comuni-

caciones de la UniversidadDistrital.

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

César AugustoHernández Suarez1

Edwar Jacinto Gómez2

Octavio JoséSalcedo Parra3

Tutorial for the Design ofFIR Digital Filters over FPGA

Abstract

This article presents a different and simple

methodology in the design and implementation of

digital filters with finite impulsional response, over

a reconfigurable architecture like FPGA XC3S200. In

this development were used CAD tools as FIR

toolbox and ISE of Xilinx, obtaining with that

results in record time, optimization in the hardware

resources used and good performance in frequency,

desirable characteristics in the development of

systems oriented to the digital signal processing.

Key words: Filters, FIR, FPGA, VHDL.

TUTORIAL PARA EL DISEÑO DE FIL-

TROS DIGITALES FIR SOBRE FPGA

Resumen

Este artículo presenta una metodología diferente y

sencilla en el diseño e implementación de filtros

digitales con respuesta impulsional finita, sobre una

arquitectura reconfigurable como la FPGA XC3S200.

En este desarrollo se emplearon herramientas CAD

como “FIR toolbox” e “ISE” de Xilinx, obteniendo

con ello resultados en tiempo record, optimización

en cuanto a los recursos de hardware utilizados y un

buen desempeño en frecuencia, características

deseables en el desarrollo de sistemas orientados al

procesamiento digital de señales.

Palabras claves: Filters, FIR, FPGA, VHDL.

1. INTRODUCTION

The digital signal processing is an area of

electronics that has had great advances in the last years

due to technological developments in hardware.

Today it plays an important role in areas such as

communications, circuit design, acoustics, voice

processing and energy regeneration and distribution

systems, for this reason has been conceived an

architecture of digital filter of high capacity y

computation speed, obtaining with this more

accuracy compared with the analogical circuits

and the analogical signal processing systems.[9].

Other advantages of the digital filters with respect to

its similar analogical filters are their small size,

efficiency and the possibilities of a fast reconfiguration

in its tasks. This being supported by technologies

with high scale of integration [7].

The digital signal processors (DSPs) are used to

implement many of the DSP applications, among

others are the digital filters. Nevertheless, even though

the DSPs are programmable through software, the

architecture of the hardware of these is not flexible;

on the contrary is fixed, which is noted for example

by the fixed number of multiplicator – accumulator

blocks (MAC), or the width of the data bus. This

constitutes a limitant for the DSPs with respect to

reconfigurable architectures with the CPLDs and the

FPGAs [11].

The CPLDs-FPGAs circuits provide a

reconfigurable and efficient solution to implement

DSP applications as the digital filters. These circuits

can reach a higher throughput and more data

processing potency than the DSPs [11].

This article pretends to expose a different

methodology in the design and implementation of

FIR digital filters by the use of CAD tools as FIR

toolbox and ISE of Xilinx. The methodology

proposed pretends to reduce considerably the time

required to perform a FIR digital filter, and to

optimize the available hardware resources in the

FPGA XC3S200, selected as programmable logic

device to implement such solution.

2. FILTER FIR DESIGN

The digital filter to be designed is a FIR filter (finite

impulsional response). The FIR filters have two main

advantages with respect of the IIR filters (of infinite

response) [6]. The first one is they can be designed

with lineal phase, so that they do not phase present

distortion. Also, they are unconditionally stable due

to the fact that their transference function has only

zeros. Nevertheless, an IIR filter requires a minor

number of coefficients than a FIR filter [6].

A FIR digital filter has a response to the impulse

of finite duration that can be expressed

mathematically as:

(1)

Page 15: Revista Ingenieria Vo.14 No.1

Ingeniería14 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

14

14

Where N is the order of the filter. This expression

indicates that the actual output value of an FIR filter

is the function of actual entrance and of the N

preceding entrances. In effect, the system behaves as

a window. In the same way, an FIR filter can be

described by its transference function as:

Figure 1. Software FIR toolbox.

Figure 3. Selection of filter type.

precision of the mathematical calculations, and

thereby the designer based on experience will select

the amount of bits according to the desirable

performance of the filter. See Figure 4.

Figure 4. Selection of the sampling frequency,order of the filter and number of bits.

Figure 6. Obtention of the filter coefficients.

(2)

(3)

In other words:

H(z)=h0 + h

1z-1 + h

2z-2 + h

3z-3 + . ...+ h

N-1z-N+1

The roots of this polynomial are the zeros of the

filter. Therefore, the design problem of the FIR filters

is simply to determine the N coefficients h(n) from a

specification of the desired response frequency (HD(ω)).

In this methodology the free software “FIR

toolbox” developed by the company Mediatronix is

the tool responsible to determine the coefficients h(n)

of the filter, from configured parameters by the

designer. This tool facilitates the development of

this process and provides total compatibility with

programmable logic devices. (See Fig. 1).

Figure 2. Work area of the FIR toolbox software.

Next is selected the method of design from which

will be calculated the coefficients of the FIR filter.

See Figure 5.

Figure 5. Selection of the design method.

At last, the design option is pressed to obtain the

fixed points to obtain a simple implementation that

facilitates the calculations within the programmable

logical device. Nevertheless, the tool provides a list

of the coefficients with their representation in floating

point and their respective fixed point representation,

whose transformation depends on the amount of

bits selected in the preceding procedure. See Figure 6.

The tool also provides the option to verify the

behavior in time and frequency of the designed filter,

as for their cut frequencies and their phases, as

observed in Figure 7.

In figure 2 can be

observed the work area

of the tool “FIR

toolbox”.

In the upper options

can be selected the type

of filter desired: low

pass, high pass, band

pass o band stop, with

their respective cut

frequencies at less than

3dB. See figure 3.

Next will be

determined the

sampling frequency, the

order of the filter and

the amount of bits. To

select the sampling

frequency the designer

has to take in

consideration the

characteristics of the

analog – digital

convertor (ADC) and

the final application of

the filter. To select the

order of the filter is

necessary to take in

consideration that it can

affect the wideband of

the filter. The number

of bits determines the

Page 16: Revista Ingenieria Vo.14 No.1

Ingeniería15Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

15

15

In last term, the archive of the filter coefficients

with extension COE is exported, as shown in figure

8. This archive is compatible with the ISE from Xilinx,

which allows a direct and simple implementation.

Figure 8. Coefficient file exported to Xilinx.

3. REALIZATION OF

THE FILTER IN VHDL

For the implementation of the designed filter with

the “FIR toolbox” tool and the software ISE 8.1 of

Xilinx, the FPGA Spartan3 XC3S200 was selected. The

programming of this FPGA from a COE extension

archive generated before was very simple. In first instance

a new project was created as shown in Figure 9.

Figure 9. Creation of a Project in the ISE 8.1 of Xilinx.

Figure 10. Addition of an “IP” source in the project.Figure 7. Response frequency of the designed filter.

Once the project was created a new source was

added, but this time was not selected the option

“VHDL module” but IP (Coregen & Architecture

Wizard)” as indicated in Figure 10.

The IP source is an intellectual property module (IP:

Intellectual Property), that allows the realization of fast

designs optimizing the systems for specific applications

as the one that is occupying us in this case.

Figure 11. IP Distributed Arithmetic FIR Filter.

Figure 12. Configuration of DistributedArithmetic FIR Filter.

Within a great

variety of modules

offered by the IP

source, we selected

“ D i s t r i b u t e d

Arithmetic FIR

Filter”, in other words

a FIR filter with a

parallel and massive

hardware, which will

use more gates than a

FIL filter realized with

an architecture based

on MAC ( as a DSP),

but with a higher

processing level.

After that, the

amount of channels

of the filter is

configured, and the

interpolation of the

entrance data of it.

According to the

analog digital

convertor used as

entrance to the

system, and its

functioning mode,

the type of data

conditioning most

appropriate was

selected, as shown in

Figure 11.

After the preceding step, depending on the filter

grade, the amount of storing elements (Taps) is

configured, the format of the output data and the

width of the job word of the filter, as of the charge

of the coefficients of the archive. All the preceding

depends on the parameters used to calculate the digital

filter in the “FIR toolbox” tool. See Figure 12.

It is also important to note that in this point is

given the option to choose among fixed coefficients

or reconfigurable coefficients which will give the

option to make adaptive filters, or to apply control

strategies as evolutive hardware or any other type of

implementation that has as base an equation in

differences with reconfigurable coefficients.

The last thing to do is choose the width of the

entry data, if coming from the convertor with or

without sign, also if fan implementation is going to

be realized, serial or parallel, and if it will have a

general reset to restart the system in case it is necessary,

also is given the option to put an exit registry in the

exit of the system.

Page 17: Revista Ingenieria Vo.14 No.1

Ingeniería16 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

16

16

In Figure 16 can be observed a first simulation. In

the upper part can be seen the clock signals and control

of our digital system, which in this case has so high

frequency that it’s changes cannot be visualized, in

the inferior part we have visualized in analog format

within the simulation, the entry signal of our system

in green and exit in red, can be observed how it

diminishes the signal of higher frequency and passes

the signal that is within the functioning parameters

of the pass-band filter, and also observe in detail the

simulation time which lasted almost 7 milliseconds,

that for the simulation of a configurable digital

system is a considerable amount of time.

Figure 13. Filter Project FIR ended.

Figure 14. Report of state of the finished project.

Figure 16. First Simulation.

After having the core of the filter totally configured

and loaded with the indicated coefficients, it is

included in the project created in the ISE, in this case

was included as a block in the graphic tool of this

suite. See Figure 13.

4. RESULTS

Once ended the implementation within the device

a report of the use of it is shown, and in Figure 14

can be observed that only 17% of the available

resources in the FPGA Spartan 3 of 200 thousand

gates was used.

It is important to note that the order of the

designed filter is 50, which is very high and brings as

consequence the great amount of gates used in the

implementation. This number of gates can be reduced

considerably by reducing the order of the filter.

Another of the characteristics of this filter of great

relevance is the maximum work velocity that limits

the entry frequency of the signal to be filtered, as

shown by a delay matrix, in which a list is made of the

maximum times of transportation of the different

signals in the implementation. In this case the

maximum delay is 3.2 nanoseconds, which gives a

maximum frequency of work of about 312 megas

that divided by the 16 cycles that it takes to do each

calculation of the new exit of the filter gives us the

maximum sampling frequency, which is 19.5

megahertz , tests that will be made later. See Figure 15.

After implementation we proceed to realize a

simulation of the system, for which is generated an

archive of hundreds of simulation vectors, which

can be created in excel or in Matlab with the signals

that enter to our system, this archive is called Test

Figure 15. Matrix of delays of the signals

bench. When trying to simulate a complex digital

system it has the problem to simulate and verify the

results of the system in higher ranges of time, and

in this case we use a tool called ModelSim, that allows

us to make simulations with big advantages, as for

example a type of simulation that transforms digital

data into analog, which can give an idea of what

really is happening with the designed system.

In Figure 17 can be observed a much more

interesting simulation. As in the preceding first 4

signals, it does not show us any relevant information,

due to its high frequency, but in the last two: the

entry signal in purple and the exit signal in red show

an interesting behavior. In first place , a low frequency

signal was injected, in which having zero crossings a

typical response to impulse within our filter is shown,

which stabilizes in one semi-cycle of oscillation, which

is a very good response, in the following segment, a

high frequency signal is injected which is almost

absolutely diminished, and by last a period of time

in which a same frequency as the filter resonance is

injected and which passes totally.

Page 18: Revista Ingenieria Vo.14 No.1

Ingeniería17Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

17

17

and in the time required for the development which

was very reduced. The results obtained in the FIR

filter tests, related to response times are very

satisfactory, emphasizing the processing levels of the

reconfigurable architectures.

REFERENCES

[1] ALTERA Corp., “FPGAs Provide Reconfigurable DSP Solutions”,White Paper, August 2002, version 1.0.

[2] ALTERA Corp., “Implementing FIR Filters in FLEX Devices”,Application Note 73, February 1998, version 1.01

[3] ALTERA Corp., “Using PLDs for High-Performance DSPApplications”, White Paper, February 2002, version 1.0.

[4] G. Proakis and D. Manolakis. “Tratamiento digital de señales”,Primera Edición, Prentice Hall. 1998.

[5] K. Ogata. “Sistemas de Control en Tiempo Discreto”, SegundaEdición, Prentice Hall. 1996.

[6] LAHUERTA Aguilar, Eduardo; MEDRANO Sanchez, Carlos yRAMOS Lorente, Pedro, et al. Implementación de un filtro digitalen VHDL. Universidad de Zaragoza, España.

[7] MELGAREJO, Miguel y PIRAJAN, Alexis, et al. Filtro FIR adaptativosobre celdas lógicas programables FPGA. En revista Ingenieria,Universidad Distrital. Bogota, Colombia. 2000.

[8] R. Hamming. “Digital Filters”, Editorial Prentice Hall. 1999.

[9] R. N Vera. “Sistemas de Transmisión”, Segunda Edición, Mc GrawHill. 1998.

[10] S. Haykin. “Señales y Sistemas”. Primera Edición, Prentice Hall.1997.

[11] VERA Lizcano, Mario; VEJARANO, Gustavo y Velazco Medina,Jaime, et al. Diseño de funciones DSP usando VHDL y CPLDs-FPGAs. En revista: Ingenieria y Competitividad, Universidad delValle. Cali, Colombia. 2006.

[12] XILINX Corp., “Distribuited Arithmetic FIR Filter”.Marzo 2002.

César Augusto Hernández SuárezNació en Villavicencio, Colombia. Es Ingeniero Electrónico de la Uni-

versidad Distrital F. J. C. de Bogotá, Colombia. Especialista en Inter-

conexión de Redes y Servicios Telemáticos de la Universidad

Manuela Beltrán. Magíster en Ciencias de la Información y las Comu-nicaciones de la Universidad Distrital, y actualmente adelanta estu-

dios de maestría en Economía en la Universidad de los Andes. Ac-

tualmente se desempeña como Docente de planta en la Universidad

Distrital F. J. C. en el área de los circuitos digitales y el procesamientodigital de señales. [email protected]

Edwar Jacinto GómezNació en Bogotá, Colombia. Es Ingeniero de Control de la Universi-dad Distrital F. J. C. de Bogotá, Colombia. Actualmente adelanta es-

tudios de Maestría en Ciencias de la Información y las Comunicacio-

nes de la Universidad Distrital y se desempeña como Docente en la

Universidad Distrital F. J. C. en el área de [email protected]

Octavio José SalcedoIngeniero de Sistemas de la Universidad Autónoma de Colombia.

Magíster en Teleinformática de la Universidad Distrital. Magíster en

Economía (PEG) de la Universidad de los Andes de Bogotá. Estudian-

te del Doctorado en Ingeniería Informática de la Universidad Pontificiade Salamanca, España. Se desempeña como Docente de la Facul-

tad de Ingeniería de la Universidad Distrital y en la Universidad Na-

cional de Colombia. Es director del Grupo de Investigación “Internet

Inteligente” de la Universidad Distrital. [email protected]

Figure 17. Second Simulation.

In Figure 18. A test is made running the filter

sampling to a higher frequency, to demonstrate that

the filter can work at much more higher frequencies,

and being these frequencies of such a high level, the

test is satisfactory, and being this test on the limit

noting small deformations in the signal not being

able to reconstruct the entry signal, this test was made

with an entry signal that coincided with the new

frequency of resonance of the filter.

Figure 18. Third Simulation.

By last, in Figure 19, a test was made that tests in

real terms the filter. In the entry signal was made a

multiplication between the signal that corresponded

the resonance frequency of the filter with white sound

(pseudo aleatory signal), giving as result a signal

visualized in yellow, a signal totally deformed but

that implicitly has the frequency that makes the filter

to react trying to reconstruct (in red) the original signal

of adequate frequency for our purposes, is a test very

significative, due to the system being able to

reconstruct deformed signals by systematic and totally

aleatory errors, which is hard to find in a filter an less

in a digital one.

Figure 19. Fourth Simulation.

5. CONCLUSIONS

The development of the FIR digital filter, through

the methodology described in this paper has allowed

to realize a satisfactory digital solution in terms of

response times, filtering selectivity, optimization of

available hardware resources in the FPGA selected

Page 19: Revista Ingenieria Vo.14 No.1

Ingeniería18 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

18

18

1 Investigador principal

Grupo de InvestigaciónGICOGE

2 Miembro Grupo de

investigación GICOGE

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

José NelsonPérez Castillo1

José IgnacioRodríguez Molano2

Aplicabilidad del Modelo de Información deEdificios en el ámbito geoespacial paraapoyar el Plan Maestro de Desarrollo Físicoy Tecnológico de la Universidad Distrital

ResumenAlgunas de las tareas de las Instituciones de

Educación Superior colombianas, como los planesmaestros, se gestionan generalmente por medio deun Sistema de Información Geográfica (GeographicInformation System, SIG), en virtud a que los procesosen estas actividades requieren un alto nivel de integraciónde información geoespacial. Hoy en día, el Modelo deInformación de Edificación (Building Information Model,BIM) tiene la capacidad de abarcar la geometría de laconstrucción, las relaciones espaciales, la informacióngeográfica, y las propiedades de los componentesrelacionados con cualquier edificio involucrado en unplan de desarrollo físico. En este contexto, laUniversidad Distrital Francisco José de Caldas, enBogotá Colombia, integrará estos dominios, enfunción del plan de desarrollo institucional. Estainvestigación demuestra que es posible transferir lainformación adquirida a partir del BIM hacia el entornogeoespacial. Los resultados también confirman que elBIM proporciona el nivel y la cantidad de informaciónsuficiente para la perfecta integración entre lainformación geográfica y la información del edificio.

Palabras clave: Interoperabilidad, Ciclo de Vidade Edificación, TICs Construcción, Gestión

Ambiental, BIM, Ambiente Virtual de Edificación.

Applicability of Building InformationModels in Geospatial Environment toSupport Physical and TechnologicalDevelopment Master Plan of theDistrital University

AbstractSome tasks in the higher education in Colombia

such as master plans are usually managed by using aGeographical Information System (GIS), as the tasksin these processes require a high level and amount ofintegrated geospatial information. Nowadays,Building Information Models (BIMs) have thecapacity for encompassing building geometry, spatialrelationships, geographic information, and propertiesof the components related to physic developmentplan. In this context, the Distrital University FranciscoJosé de Caldas at Bogotá, Colombia integrates thesedomains according to institutional development plan.This research has demonstrated that it is possible totransfer information acquired from BIMs into the

geospatial environment. The results also confirmedthat BIMs provide a sufficient level and amount ofinformation for the seamless integration betweengeographic information and building information.

Key words: Interoperability, Building Cycle Life,ICT Construction, Environmental Management,

BIM, Virtual Building Environment.

1. INTRODUCCIÓN

1.1. La integración de CAD/GIS/BIM

Durante los últimos años, las comunidades delámbito geoespacial y de la arquitectura, la ingeniería y laconstrucción (AEC), han venido trabajando en laperspectiva de la integración e interoperabilidad en estasdos importantes áreas de la actividad humana. Mientrasque desde la perspectiva de lo geoespacial, el interés secentra en modelos correspondientes a entidades delmundo real con objetos en dos o dos y mediadimensiones, como los que se encuentran en los mapasy en los modelos digitales del terreno, en el caso de losedificios y obras civiles en general la atención es puestaen un contexto tridimensional.

En el campo de la AEC, el Modelo de Informaciónde Edificación (BIM) busca facilitar la administraciónefectiva del uso compartido y el intercambio deinformación de edificación a lo largo del ciclo de vidacompleto de todos los proyectos. En [1] se define unBIM como una representación digital paramétrica,orientada a objetos, inteligente y muy rica en datoscorrespondientes a una instalación particular, de la cualse puede generar información, empleadaposteriormente en la toma de decisiones y en losprocesos de entrega de una edificación. También, unBIM se define [2], como una representacióncomputable de todas las características físicas yfuncionales de un edificio y su información de proyecto(ciclo de vida) asociada, que se convierte en unrepositorio de información para los interesados en elproyecto. Adicionalmente, en [3] se afirma que un BIMes una nueva manera de crear, compartir, intercambiary manejar la información del edificio a través del ciclode vida completo del mismo. En tal sentido, losintercambios de información ocurren a través de losprocesos del ciclo de vida entre todos los interesados,el conocimiento fundamental actúa como la espinadorsal de la información proporcionando datoshistóricos y datos al día, referentes a los procesos delciclo de vida del edificio. De ahí que un BIM, pueda

Page 20: Revista Ingenieria Vo.14 No.1

Ingeniería19Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

19

19

concebirse como un elemento fundamental delconocimiento básico del ciclo de vida de la informaciónde la edificación. En este contexto, las siguientesdefiniciones para un BIM son bien conocidas:

Producto: representación digital inteligente de unaconstrucción o edificio.

Proceso colaborativo: que involucra loscontroladores del negocio, capacidades deprocesamiento automatizadas, estándares deinformación abiertos para la sostenibilidad y fidelidadde la información.

Facilidades: intercambios de información bienentendida, flujos de trabajo y procedimientos que losequipos usan de manera repetible, verificable,transparente e información sustentable basada en elentorno que se use durante el ciclo de vida de los edificios.

Los BIMs cubren las diferentes fases del ciclo devida de los edificios y son muy ricos en datos, dadoque representan una gran cantidad de informaciónsemántica y geométrica. Adicionalmente, los BIMs sontridimensionales, de modo que las geometrías estánespacialmente relacionadas unas a otras y se representandentro de una estructura orientada a objetos. Otrascaracterísticas no menos importantes de los BIMsincluyen el hecho de ser extendibles, abiertos eindependientes de los proveedores; con el fin degarantizar el uso compartido y el intercambio, los BIMsse almacenan digitalmente, como archivos físicos obases de datos y pueden compartirse e intercambiarseentre aplicaciones. Además, pueden generarse variasvistas y modelos a partir de un BIM individual [4].

Los BIMs actuales son el resultado de la evoluciónde formatos de intercambio de facto tales como DXFa través de los modelos de información de la AEC,que se apoyan principalmente en las tecnologías deSTEP. Entre los esfuerzos más significativos sedestacan los del CIMSteel Integration Standards 2 (CIS/2) y las Clases Básicas de la Industria (IndustryFoundation Classes, IFC) [5].

Los documentos CIS/2 son estándares abiertospara el intercambio y uso compartido de maneradigital de información de ingeniería, relativa al ámbitodel acero estructural. Trabajos recientes sobre el uso eimplementación de BIMs y especialmente de las IFCsincluyen a [6],[7],[8],[9] y [10].

Por otra parte, el proceso de desarrollo de losestándares del Open Geospatial Consortium, OGC sesoporta en pruebas de laboratorio, de modo que enla actualidad se trabaja activamente en la convergenciade las tecnologías geoespaciales y de la AEC. Estastienen diferentes vocabularios, geometrías,paradigmas de computación, formatos de datos,esquemas de datos, escalas y vistas del mundo.Además, diferentes requerimientos de exactitud,verosimilitud (realismo) y ejecución de lasanimaciones. De hecho, las diferentes organizaciones

tienen procesos de negocios diferentes para los quehan desarrollado sus propios formatos yprocedimientos tanto digitales como análogos. ElGrupo de Trabajo de Interoperabilidad CAD/GIS,está orientando sus esfuerzos hacia la integraciónAEC/CAD/OGC. Los miembros del OGC estántrabajando sobre proyectos tales como: la integraciónde estándares internacionales para Modelos deInformación de Edificios con la Especificación delLenguaje de Marcado Geográfico (GML), el estándarde la industria más importante para la codificaciónen XML de la información geoespacial. XML haceposible describir y codificar muchas clases de datosde modo que el software pueda integrar y reconocerinteligentemente los datos para diversos propósitos.

Durante la última década la comunidad de la AECestableció los estándares de las IFCs [11] para loselementos y propiedades de la construcción queimpulsaran un movimiento del mercado desde elCAD 2D a objetos 3D [12]. La integración deestándares de los mundos geoespacial y de la AECprovee una excelente oportunidad para generar unabase que habilitará a la industria para satisfacer losrequerimientos de interoperabilidad planteados. Unode los estándares que ha avanzado gracias a talesiniciativas es CityGML [13], un marco abierto delmodelo de datos y un estándar de codificación basadoen XML para el almacenamiento e intercambio demodelos urbanos virtuales 3D.

CityGML provee esquemas de objetostopográficos para modelos 3D de ciudades y delpaisaje con respecto a su geometría, topología,apariencia y semántica. CityGML representa edificios(incluyendo interiores), modelos digitales de terreno,cuerpos de agua, vegetación, transporte y mueblesen cinco niveles de detalle permitiendo la conexión adatos que se mantienen en los sistemas catastrales yen los modelos de información de edificios [13].También pueden intercambiarse, las propiedadesobservables de las superficies de entidades tales comolos rayos infrarrojos y la emisión de ruido.

Un modelo completo de IFC puede exportarse aCityGML, proporcionando la importante habilidadpara aprovechar los componentes relevantes del BIMy así construir modelos urbanos realistas para unamplio rango de aplicaciones operacionales y deplaneación. CityGML es una parte de un conjuntointegrado de estándares del OGC que permiten elacceso amplio, el uso compartido y la integración yaplicación de geodatos a un sin número de tareas

enfocadas a la solución de problemas [14].

1.2. Modelamiento, Gestión y Planeamiento

Urbano e Integración de BIMs y GISs

En Colombia y particularmente en Bogotá, elcrecimiento y desarrollo urbano, deben hacerse acordescon las normas establecidas para la gestión y planeacióndel territorio, en el Plan de Ordenamiento Territorial

Se afirma queun BIM es unanueva manerade crear,compartir,intercambiar ymanejar lainformacióndel edificio através delciclo de vidacompleto delmismo.

Page 21: Revista Ingenieria Vo.14 No.1

Ingeniería20 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

20

20Figura 1. Modelo del PlanDesarrollo Físico y Tecnológico

(POT) y en el Plan Integrado de Gestión Ambiental(PIGA). Los Sistemas de Información Geográfica seusan en actividades de gestión y planeación urbana. LaCiencia y Tecnología de la Información Geográfica seusa en la planeación de: el catastro, el uso de la tierra, elcrecimiento urbano, servicios públicos (agua, luz,alcantarillado, gas y telefonía) la renovación urbana, lagestión y planeación de la respuesta a emergencias, laentrega de bienes y servicios y del sector educativo.

En Bogotá, el Catastro Distrital mantiene losrepositorios que constituyen la infraestructura deinformación indispensable para los procesos deselección de sitios. Por lo general, los registros catastralesse almacenan y gestionan en la forma de modelos degeoinformación 2D y 3D. En tal sentido algunos delos trabajos más recientes incluyen [15], [16], [17] y[18]. En cuanto al uso de los GISs para la selección(localización) de sitios para la construcción de un tipoespecífico de edificación están los estudios de [19],[20] y [21]. En este orden de ideas, el Plan Maestro deDesarrollo Físico de la Universidad Distrital, se inscribeen el Plan de Ordenamiento Territorial de Bogotá y enconsecuencia en el Plan Maestro de Educación segúnlo establece la Secretaría de Planeación Distrital deBogotá. Por lo anterior, la integración de la informaciónde edificios por sede con la información geoespacial deBogotá en el Sistema de Información del Plan Maestrode Desarrollo Físico de la Universidad Distrital, seinscribe en los requerimientos de convergencia hacia

una integración inconsútil a nivel de los estándares.

2. CASO DE ESTUDIO

En el ámbito de la educación superior, la crecienteintegración de las tecnologías de la información y lascomunicaciones en los ámbitos geoespacial y de laAEC, favorece de modo extraordinario el desarrollode la sociedad, proporcionando, entornos de trabajo einvestigación, antes no imaginados. En el casoespecífico de la educación superior, este fenómenoimpacta los planes tácticos y estratégicos, de lasuniversidades colombianas. En particular, en estedocumento se describe su influjo en la UniversidadDistrital Francisco José de Caldas de Bogotá, Colombia.

La Universidad Distrital Francisco José de Caldas,es una institución pública de educación superior que

En Bogotá, elCatastroDistrital

mantiene losrepositorios

queconstituyen lainfraestructurade informaciónindispensable

para losprocesos deselección de

sitios.

la universidad. La concepción del desarrollo físico y

tecnológico, se esquematiza en la figura 1.

2.1. Plan de desarrollo físico y tecnológico de

la Universidad Distrital

Desde la perspectiva del desarrollo tecnológico ysegún la Figura 1, mirando de abajo hacia arriba, enrelación con el Plan Maestro de Desarrollo Físico, seobserva que se hace necesaria la creación del Sistemade Información del Plan Maestro de DesarrolloFísico. Desde el ámbito de la infraestructura de redesde comunicaciones es imperioso introducircompletamente las Redes Avanzadas [25], mediantela implementación de la denominada Red deInvestigaciones de Tecnología Avanzada (RITA). Enla parte de la infraestructura de servicios se recurrirá a lacomputación Grid, cuya infraestructura sedenominará Grid-UD. En la parte de las aplicacioneseducativas, se pretende el uso intensivo y extensivo delas técnicas más avanzadas de e-learning, mediante elproyecto ADICDEV (Adquirir, Diseñar, Construir yDotar la Infraestructura de la Educación Virtual).

La Grid-UD, desarrollará su completo potencial,sobre RITA puesto que esta última, se encuentraconectada a la Red Universitaria Metropolitana deBogotá (RUMBO), a la Red Académica Nacional deTecnología Avanzada (RENATA) de Colombia, a laRed Latinoamericana CLARA y de ahí a la red Geant2en Europa e Internet 2 en Norteamérica siguiendo elplan nacional de tecnologías de la información y lascomunicaciones, emprendido por el estado

colombiano, según se ve en la Figura 2.

2.2. El Sistema de Información del Plan

Maestro de Desarrollo Físico

El Sistema de Información del Plan Maestro deDesarrollo Físico, debe ser un entorno virtual deedificación (Virtual Building Environment, VBE) quehaga posible al grupo de trabajo encargado del PlanMaestro de Desarrollo Físico, la creación de los Modelosde Información de Edificios por Sede y el uso ymanipulación de los distintos modelos digitales. ElSistema de Información del Plan Maestro de DesarrolloFísico comprende la definición de un modelo deinformación geoespacial y de edificios por sede, decarácter distribuido y con una estructura de datosutilizada para la representación de la información dearquitectura e ingeniería acorde con el Plan de deOrdenamiento Territorial de Bogotá, elemento claveque orienta la planificación y el desarrollo urbano de laciudad capital de Colombia. La pertinencia de estaformulación se funda en la necesidad de desarrollar unmodelo de información que respondaapropiadamente a los requerimientos de gestiónacadémica y administrativa que plantea la ejecución delPlan Trienal de Desarrollo 2008-2010, de la UniversidadDistrital Francisco José de Caldas.

cuenta con aproximadamente veintiséismil estudiantes. Esta institución deeducación superior, se distribuyegeográfica-mente en Bogotá, contandopara ello actualmente, con cinco sedes ydos más para finales del 2010. Suprospectiva se hace plausibleestratégicamente en su plan decenal,denominado “Saberes, conocimiento einvestigación de alto impacto para eldesarrollo humano y social”, quecontempla en su política 6, el desarrollode la infraestructura física y tecnológica de

Page 22: Revista Ingenieria Vo.14 No.1

Ingeniería21Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

21

21

Desde el punto de vista geoespacial, cada sede debedisponer de su respectivo plan de regularización ymanejo, como requisito sine qua non, para ajustar sudesarrollo físico, de acuerdo con las normas que regulanel crecimiento urbano de la ciudad. Cada modelo deinformación de edificios por sede quedará integrado alsistema de información del Plan Maestro de desarrollofísico, superando las prácticas tradicionales estructuradassobre la disyunción disciplinar, dando paso a un nuevomodelo integrado, estructurado sobre las jerarquíasnaturales de la organización, complejo y dinámicosiguiendo los últimos avances en la integración demodelos de información de edificación y sistemas de

información geográfica.

2.3. Aspectos conceptuales del Sistema de Infor-

mación del Plan Maestro de Desarrollo Físico

Desde lo conceptual, el modelo del sistema deinformación del plan maestro de desarrollo físico ytecnológico puede constituirse recurriendo a variascategorías gnoseológicas estructuradas de modojerárquico en varios ámbitos a saber: urbano, macro-arquitectónico, arquitectónico, espacial y constructivo.

El ámbito urbano, corresponde a la ciudad comoorganización; entendida como un sistema abierto alterritorio y estructurado en base a las relaciones entreespacios adaptados, que corresponden a aquellos endonde se realizan las actividades de la población. Elámbito macro-arquitectónico, corresponde al conjuntode edificios de la Universidad; debe ser abierto alsistema urbano y estructurado en base a la relaciónentre edificios. El ámbito arquitectónico, correspondeal edificio como organización; debe ser un sistemaabierto al entorno y estructurado con base a la relaciónentre espacios cualificados. El ámbito espacial,corresponde al espacio individual cualificado comoorganización; debe ser un sistema abierto al edificio yestructurado en base a la relación entre elementosconstructivos y componentes accesorios. El ámbitoconstructivo, se refiere a la parte física que se integra enuna obra de construcción y al procedimiento usadopara conseguirla; debe ser un sistema que puede serabierto o cerrado y estructurado en base a las relacionesde otros elementos constructivos.

Por ello, el Modelo Digital de Información deEdificios de cada Sede de la Universidad Distrital, esuna unidad compleja resultante de la integración delconjunto de subsistemas disciplinares quetradicionalmente componen el edificio (arquitectura,estructura, electricidad, etc.). Esta integración implicaestablecer las relaciones entre estos subsistemas.

2.4. Sistema de Información del Plan Maestro

de Desarrollo Físico y Plan Integrado de

Gestión Ambiental

Para cumplir con el Plan Integrado de GestiónAmbiental (PIGA), el sistema de calificación de

Figura 2. Red Nacional Académica deTecnología Avanzada. Fuente: Ministerio de

Tecnologías de la Información y lasComunicaciones de Colombia

Desde elámbito de lainfraestructurade redes decomunicacioneses imperiosointroducircompletamentelas RedesAvanzadas .

edificios verdes (Leadership in Energy andEnvironmental Design, LEED®) es un elementode certificación crítico para el desarrollo sustentablede la Universidad, pues se está convirtiendo en unanorma mundial para desarrollar edificios sosteniblescon un uso adecuado de los recursos. Con launiversalización de esta norma, la Universidad deberáadoptar para sus nuevos proyectos de construcciónla certificación LEED, que califica los proyectos conarreglo al diseño del emplazamiento, la calidadmedioambiental interior y el uso eficaz de la energía,los materiales y el agua. Una calificación LEED altareconoce la calidad de un diseño de construcción verdey además convierte el proyecto en candidato a diversasayudas financieras, con los importantes beneficios

que ello implica para la Institución.

3. PROTOTIPO

La implementación de la integración de lastecnologías BIM y geoespaciales, se ilustra de maneraconcreta, en los diseños correspondientes al Centrode Investigación y Desarrollo Científico y Tecnológicoen Ingeniería, conocido con el acrónimo de

CIDCYTEI [22].

3.1. El contexto

Geoespacial

De acuerdo con el

Plan de Desarrollo

Institucional, en particular

el Plan Maestro deDesarrollo Físico yTecnológico, lasintenciones de expansióny crecimiento de laUniversidad Distrital en ladenominada Sede Central,ubicada en el sector centralde la ciudad capital deColombia, deben seguirlos lineamientos legalesexpuestos en el Plan deOrdenamiento Territorialde Bogotá en general y enparticular el desarrollourbanístico de la localidadde Chapinero.

No obstante, en elcontexto de la localidad deChapinero, es precisoconsiderar las Unidades dePlanificación Zonal, queestablecen los acuerdoscomunitarios en relacióncon los aspectosdotacionales y el uso delsuelo. Cumplidos losrequisitos anteriores se Figura 3. Localización Geográfica

del CIDCYTEI

Carrera 8 No. 40-60

Page 23: Revista Ingenieria Vo.14 No.1

Ingeniería22 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

22

22

simbología y técnicas específicas.

Diseño estructural. El diseño estructura caracterizalos soportes metálicos misceláneos y los puntos deconexión a los elementos externos al edificio. Se tuvoen cuenta el tipo y calidad de los materiales a utilizar,excavaciones, elevaciones y secciones estructurales,armaduras, techos falsos, obras exteriores, vigas,columnas y demás especificaciones básicas.

Diseño eléctrico. Se tuvo en cuenta el sistema deiluminación y commutación, tomacorrientes de usogeneral, instalaciones de fuerza, programación depaneles, sistemas de aterramiento, pararrayos,simbología y demás especificaciones técnicas.

Diseño de instalaciones sanitarias e

hidráulicas. Comprende todos aquellos elementosconstructivos relacionados con el manejo del aguaincluyendo el abastecimiento de agua potable, losdrenajes sanitario y pluvial, instalacioneshidrosanitarias, bombeo de agua potable,suministro de agua al sistema de protección deincendios, potabilización del agua, tratamiento ydisposición final de aguas residuales, sistema deeliminación de basura e incineración de documentos.

Estudio topográfico completo. Levantamientotopográfico del terreno planimétrico y altimétricocon curvas a nivel a un distanciamiento no mayorde 50 cms.

Estudio de suelos. Análisis de estratos queconformen valores soportes para aplicaciones en el diseñoestructural y recomendaciones para el diseño de bases, yespesores de pisos y pavimentos.

Diseño de obras civiles de conjunto. Planogeneral del trazado de calles y estacionamientos yubicación del edificio, planos constructivos de estasobras, descripción topográfica con rumbos, distanciasde calles y estacionamientos.

Estimados de costos. Se realizarán una vezterminados y aprobados los planos constructivosdel proyecto y contendrán los costos por etapas ycostos globales.

Presupuesto de construcción y carpeta de

ejecución de obra. Se realizará una vez terminadoslos planos constructivos y contendrá cantidades deobras por etapas, costos unitarios y avances físicosfinancieros, Red CPM y diagramas de Gant.

Los resultados del proceso anterior, se concretan en

el prototipo de diseño que se presenta en la figura 4.

4. BENEFICIOS DE LA APLICACIÓN

DE LOS BIMs

En realidad la mayor parte de los beneficios delSistema de Información de Edificios de la Universidad

Cada sededebe disponer

de surespectivo

plan deregularizacióny manejo para

ajustar sudesarrollo

físico.

procedió a la formulación de la Unidad de ActuaciónUrbanística para la Facultad de Ingeniería de laUniversidad Distrital, ubicada en la Cra 7 Nº 40 – 53,fundamentándose en el Plan de DesarrolloInstitucional, según se ilustra en la Figura 3.

Por lo anteriormente expuesto, la formulación dela Unidad de Actuación Urbanística para laUniversidad Distrital, Facultad de Ingeniería, dio lugara la propuesta de construcción del Centro deInvestigación y Desarrollo Científico y Tecnológicoen Ingeniería (CIDCYTEI), que será un centro deinvestigación y desarrollo en las distintas áreas deconocimiento de la ingeniería, que hará uso intensivode las tecnologías de la Información y lasComunicaciones, en el marco de los conceptos de e-

Ciencia.

3.2. El contexto de la Construcción

Atendiendo las 4 fases del IFC Solutions Factory

[23], se siguieron los pasos siguientes:

Requerimientos

• Se acordó un programa de necesidades en cuantoa ambientes, áreas y sus particularidades.

• Se propusieron estudios generales del proyectotales como: diagramas de relaciones entre am-bientes, flujogramas, funciones de cada ambien-te y las particularidades arquitectónicas requeridaspara esas funciones. Equipamiento y mobiliariopor ambiente, calidad de la decoración, tipo deiluminación, etc.

• Se tuvieron en cuenta criterios preliminares dediseño tales como: espaciales, funcionales, for-males, simbólicos, estructurales, eléctricos,hidrosanitarios, electromecánicos, instalacionesespeciales, arquitectura accesible, materiales deconstrucción, sistemas constructivos, ventilaciónnatural y electromecánica, obras exteriores, etc.

• Se consideraron criterios básicos de costos deconstrucción del proyecto y de mantenimientodel edificio del CIDCYTEI, instalaciones, obrasexteriores, etc.

• Se tuvieron en cuenta, criterios básicos acerca de laforma administrativa que se empleará para la cons-

trucción de la obra.

3.3. Descripción de componentes del

BIM del edificio del CIDYTEI

Diseño arquitectónico del edificio. El diseñoarquitectónico es básico y se usa como punto dereferencia para los demás sistemas. Se diseña comoun todo tridimensional de modo que permita lalocalización de otros subsistemas. Se consideraronlas plantas típicas, plantas de techos, planos deelevaciones, secciones, cielos reflejados, puertas,ventanas, muebles, acabados, detalles de pasillos,

Page 24: Revista Ingenieria Vo.14 No.1

Ingeniería23Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

23

23

Distrital, en principio podrían considerarse comodirectos, no obstante, la mayoría de ellos resultan serindirectos. Los beneficios directos se concretan enelementos tales como una visualización mejorada y lacentralización de la información de las distintasedificaciones. Pero los beneficios indirectos incluyen lanecesidad de la colaboración y la consecuentecompresión mejorada de las tareas atinentes a laconcreción del Plan Maestro de Desarrollo Físico de lainstitución, situación que ayuda a reducir los inevitablesriesgos en los distintos frentes de la expansión físicade la Universidad Distrital.

Las simulaciones digitales permiten planear y probarvirtualmente un diseño, antes que el proyecto real seaconstruido. Un modelo evidentemente ayuda avisualizar los diferentes proyectos, a estimular elpensamiento con referencia a los diferentesrequerimientos y ayuda en la descripción de unproyecto de manera eficiente. Los grandes beneficiosde este cambio fundamental en la planeación yejecución de los proyectos de construcción se haránpalpables a medida que se implanten los diferentesprocedimientos y procesos informáticos. En pocaspalabras el beneficio principal del sistema deinformación de edificaciones se traduce en la reducciónde los riesgos de los distintos proyectos del PlanMaestro de Desarrollo Físico.

Vale aclarar que la simulación de un proyectomediante el Modelo de Información de Edificiosrealmente requiere un gran esfuerzo de preparaciónpor parte de los miembros del equipo asociado acada proyecto. Es poco probable que una simulacióncompleta de alta calidad pueda desarrollarse sin lacolaboración del equipo completo del proyecto. Dadoque el principio fundamental que subyace en elproceso de simulación es la eliminación del riesgo, seconcluye que esta es una herramienta fundamentalpara la implementación de técnicas de construcciónde apoyo. Es precisamente a partir de estos cambiosen el proceso de planeación y ejecución de un proyectoque los mayores beneficios se obtienen. En definitiva,la solución a muchos de los problemasfundamentales de la industria de la construcciónradica en una exitosa colaboración.

Los beneficios para la Institución al adoptar losprocesos atinentes al Sistema de Información deEdificaciones son inherentes a la naturaleza misma delos procesos, motivará a los participantes a realizar eluso más adecuado del proceso y por lo tanta a valorarsus beneficios.

La visualización, la colaboración y manejo adecuadodel conflicto, son los tres pilares fundamentales bajo loscuales se organizan los beneficios de la implementaciónadecuada de los sistemas de información de edificios dela Universidad Distrital. La visualización beneficiaprimordialmente a los individuos, mejorando sucomprensión personal, como resultado del uso de

modelos adecuados de la informaciónde edificaciones. La colaboración se refierea la acción cooperativa de variosmiembros del equipo de trabajo de talmanera que se vea estimulada y facilitadapor los modelos de información de lasdistintas edificaciones. El manejo delconflicto se orienta a beneficiosrelacionados con los diferentesproyectos, tales como la reducción de

riesgos y el peligro de despilfarro.

4.1. Visualización

El beneficio más claro de un modelo3D es la capacidad mejorada paravisualizar (entender) qué es lo que se

Figura 4. Edificio del Centro deinvestigación y Desarrollo

Científico y Tecnológico enIngeniería (CIDCYTEI)

está representando. Muchas personas tienen dificultadpara entender los diseños 2D, aún los expertos enocasiones se ven sorprendidos cuando después de unestudio repentinamente algo no queda claro. Sinembargo, un modelo 3D representa claramente unproyecto y permite la visualización de muchas de suscaracterísticas aún con pocos detalles. El cerebrohumano se destaca en su habilidad para abstraer yentender el mundo gracias al uso de abstracciones.Los símbolos son una forma poderosa de portar unaenorme cantidad de significado con muy pocainformación. La visualización implica que cada personapueda enfocarse sobre características ligeramentediferentes para componer la visualización de un objetoo una idea y es esta diferencia la que con frecuenciacausa malos entendidos entre personas que intentancomunicarse.

La naturaleza de casi todas las relaciones, entre laspersonas, se basa en la comunicación, que a su vez seapoya en el intercambio de información bidireccional.El simple hecho de proveer información (emisión) noimplica que necesariamente haya comunicación, unreceptor tiene que hacer algo (responder) con lainformación de modo que se establezca la comunicación.Una buena comunicación puede conllevar a unaevaluación y de ahí a una retroalimentación que a su vezafectará una simulación permitiendo el progreso y laevolución hacia estadios de calidad cada vez mayor en la

realización de un proyecto.

4.2. Colaboración

La necesidad de colaborar para emplear técnicas desimulación en la industria de la construcción es sinlugar a dudas su mayor beneficio. Se ha demostradorepetidamente que una pronta colaboración generalos mayores beneficios para la planeación yconstrucción de un proyecto de edificación; entoncesel desarrollo de un modelo virtual se constituye enuno de los mejores medios para una rápida yprofunda colaboración del equipo del proyecto entorno a los aspectos más relevantes de la planeación,diseño y construcción de un edificio. Cuando la

Page 25: Revista Ingenieria Vo.14 No.1

Ingeniería24 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

24

24

comunicación real tiene lugar, cuando dos personasse escuchan realmente la una a la otra y cuando sonsensibles a las respuestas del otro, la conversación y lacomunicación son mutuamente estimuladasentonces la comprensión mutua y el respeto llegan aser posibles. La comunicación real se requiere parauna colaboración verdadera, para la interdependenciay el mutuo apoyo entre los miembros del equipo detrabajo y para trabajar hacia las metas comunes delmismo. El ciclo de retroalimentación de lainformación representa la evolución continua de lainformación conectada con el proyecto. El BIM proveela fuente de generación de nueva información que seretroalimenta sí mismo, resultando en la adición y

refinamiento de esta información.

4.3. Manejo del Conflicto

En virtud de la mayor habilidad para visualizar,comunicar, evaluar y coordinar las distintas fases de unproyecto gracias al uso de un BIM, es posible acelerar ymejor la comprensión, coordinación y el uso materialen la gestión de un proyecto de construcción. Elproceso del BIM ayuda a reducir los conflictos, losdesperdicios y los riesgos del proyecto.

Los conflictos pueden identificarse más fácilmentea través de la centralización del acceso a toda lainformación referente al proyecto. Los conflictos en lalocalización, el itinerario, etc. pueden detectarse graciasa las diversas vistas del BIM. De hecho es crítico quetodas las fuentes de información que permiten el

proceso se sincronicen en espacio, tiempo y formato.

5. TRABAJO FUTURO

Al tenor de lo establecido en el Plan Maestro deDesarrollo Físico 2008-2016 de la Universidad DistritalFrancisco José de Caldas [24], a mediano plazo, seconsolidará la infraestructura de la Sede Central(Edificio Sabio Caldas, Torre Administrativa, EdificioLuis Alejandro Suárez, Edificio Central y la Casona)para la Facultad de Ingeniería. Dicha situación brindala oportunidad para introducir de manera irreversiblela integración de las tecnologías de la informacióngeoespacial y de edificios al servicio del desarrollo ycrecimiento de la infraestructura física y tecnológica dela Facultad de más larga trayectoria en los sesenta años

de existencia de la Universidad Distrital.

REFERENCIAS BIBLIOGRÁFICAS[1] Associated General Contractors Guide, AGC Contractors’ Guide to BIM.

Available from: <http://www.agcnebuilders.com/documents/BIMGuide.pdf/>. (Visitado 12 de Abril de 2009).

[2] NBIMS, National BIM Standard Purpose, US National Institute of BuildingSciences Facilities Information Council BIM Committee, 2006. Availablefrom: http://www.buildingsmartalliance.org/nbims/. (Visitado 12 de Abril de2009).

[3] NBIMS, National Building Information Modelling Standard Part-1: Overview,Principles and Methodologies, US National Institute of Building SciencesFacilities Information Council, BIM Committee, 2007. Available from: http://nbimsdoc.opengeospatial.org/. (Visitado 12 de Abril de 2009).

Los grandesbeneficios de

este cambio enla planeación y

ejecución delos proyectos

de construcciónse harán

palpables amedida que seimplanten los

procedimientosy procesos

informáticos.

[4] Isikdag U., Underwood J., Aouad G., Wu S., 2007. Building informationmodels: a review on storage and exchange mechanisms, in: Proceedings ofthe 24th CIB W78 Conference, Maribor, Slovenia.

[5] CISIFC, 2009, http://www.coa.gatech.edu/~aisc/cisifc/. (Visitado 12 de Abrilde 2009).

[6] Howard R., Bjork B., 2008. Building information modeling – experts’ viewson standardisation and industry development, Advanced EngineeringInformatics 22 (2), 271–280.

[7] Lee, K., Chin S., Kim J., 2003. A core system fordesign informationmanagement using industry foundation classes, Computer-Aided Civil andInfrastructure Engineering 18 (4) 286–298.

[8] Chen P., Cui L., Wan, C., Yang Q., Ting S., Tiong, R., 2005. Implementationof IFC based web server for collaborative building design between architectsand structural engineers, Automation in Construction 14 (1) (2005) 115–128.

[9] Tanyer, A., Aouad, G., 2005. Moving beyond the fourth dimension with an IFCbased single project database, Automation in Construction 14 (1) 15–32.

[10] Nour, M., 2007. Manipulating IFC sub-models in collaborative teamworkenvironments, in: Proceedings of the 24th CIB W78 Conference, Maribor,Slovenia, June 2007.

[11] IFG, 2005. The Web Site for Industry Foundation Classes for GIS Project,2005. Available from: <http://www.iai.no/ifg/Content/ifg_index.htm/>.

[12] Benner, J., Geiger, A., Leinemann, K., 2005. Flexible generation of semantic3D building models, in: Presentations of 1st International Workshop on NextGeneration 3D City Models, Bonn, Germany, Available from: <http://www.ikg.unibonn.de/ûleadmin/nextgen3dcity/pdf/NextGen3DCity2005_Geiger.pdf/>.

[13] CityGML, 2009. The Web Site for CityGML: An Information Model forExchange and Storage of Virtual 3D City Models, 2006. Available from:<http://www.citygml.org/>. (Visitado 12 de Abril de 2009).

[14] OWS-4, 2007. OWS-4 Summary document, OGC Document 07-037r4:Summary of the OGC Web Services, Phase 4 (OWS-4), 2007. Availablefrom: <http://www. opengeospatial.org/projects/initiatives/ows-4/>.

[15] Steudler, D., 2006. Swiss cadastral core data model – experiences of thelast 15 years, Computers, Environment and Urban Systems 30 (5) (2006)600–613.

[16] vanOosterom, P., Lemmen, C., Ingvarsson, T., van de Molen , P., Ploeger,H., Quak, W., 2006. The core cadastral domain model, Computers,Environment and Urban Systems 30 (5) (2006) 627–660.

[17] Coors, V., 2003. 3D GIS in networking environments, Computers,Environment and Urban Systems 27 (4) (2003) 345–357.

[18] Billen, 2003. R. Billen, S. Zlatanova, 3D spatial relationships model: auseful concept for 3D cadastre, Computers, Environment and Urban Systems27 (4) (2003) 411–425.

[19] Li et al, 2005. H. Li, L. Yu, E.W.L. Cheng, A GIS-based site selection systemfor real estate projects, Construction Innovation 5 (4) (2005) 231–241.

[20] Cheng, E., Li, H., Yu, L., 2007. A GIS approach to shopping mall locationselection, Building and Environment 42 (2) (2007) 884–892.

[21] Hernandez et al, 2004. J. Hernández, L. Garcia, F. Ayuga, Assessment ofthe visual impact made on the landscape by new buildings: a methodologyfor site selection, Landscape and Urban Planning 68 (1) (2004) 15–28.

[22] Rodríguez Leonardo, “Proyecto CIDCYTEI”, documento inédito, Facultadde Ingeniería, Universidad Distrital Francisco José de Caldas, 2008.

[23] JIBM, 2008 Journal of Building Information Modeling. An official publicationof the National BIM Standard (NBIMS) and the National Institute of BuildingSciences (NIBS) http://www.wbdg.org/references/jbim.php(Visitado 15 deAbril de 2009).

[24] Oficina Asesora de Planeación y Control, 2009. Plan Maestro de DesarrolloFísico. Documento inédito presentado al Consejo Superior de la Universi-dad Distrital Francisco José de Caldas.

[24] Cabezas, A., Bravo S. Redes Avanzadas en América Latina: Infraestructurapara el Desarrollo Regional en Ciencia, Tecnología e Innovación. Libro

Blanco. CLARA-ALICE2. Enero de 2010.

José Nelson Pérez CastilloProfesor Facultad de Ingeniería de la Universidad Distrital Francisco José deCaldas. Doctor en Informática Universidad de Oviedo. Magíster enTeleinformática Universidad Distrital Francisco José de Caldas. Especialistaen Sistemas de Información Geográfica y Teledetección Espacial Universidadde Henares. Investigador Principal Grupo GICOGE. [email protected]

José Ignacio Rodríguez MolanoProfesor Facultad de Ingeniería de la Universidad Distrital Francisco José deCaldas. Estudiante Maestría en Ciencias de la Información y las Comunicacio-nes Universidad Distrital Francisco José de Caldas. Especialista en Sistemasde Información Geográfica Universidad Distrital Francisco José de Caldas.Miembro Grupo GICOGE. [email protected]

Page 26: Revista Ingenieria Vo.14 No.1

Ingeniería25Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

25

25

1 Profesor Universidad

Central. Miembro del

grupo de investigaciónCIPO.

2 Estudiante del Doctora-

do en Logística de la

Universidad deMaryland, USA.

3 PhD., Profesor de la

Universidad de los An-

des. Miembro del grupode investigación PYLO.

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Oscar YecidBuitrago Suescún1

Rodrigo Britto Agudelo2

Gonzalo MejíaDelgadillo3

Minimización de la tardanza ponderadatotal en talleres de manufacturaaplicando colonia de hormigas

ResumenSe estudio el job shop scheduling problem (JSSP)

con el objetivo de minimizar la tardanza ponderada

total. Este es un problema NP–Hard en el sentidofuerte y para resolverlo constructivamente se proponeuna implemen- tación de la meta-heurística colonia dehormigas. Las soluciones generadas se basan en el

principio que la secuencia óptima se encuentra en elconjunto de los programas activos.

El valor de los diferentes parámetros de colonia de

hormigas se determino por diseño de experimentos.Se comparo el desempeño del algoritmo propuestocon los resultados obtenidos a través de reglas de

despacho y las meta-heurísticas búsqueda tabú yrecocido simulado, en la solución de problemas detamaño 5×5, 6×6 y 10×10 de los cuales se han

reportado las soluciones óptimas.

Palabras clave: meta-heurística, colonia de

hormigas, búsqueda tabú, programación de talleres

AbstractThis research studies the minimization of the total

weighted tardiness in the job shop schedulingproblem (JSSP). This problem is NP – strongly Hard

and to solve it constructively an implementation ofthe metaheuristic Ant Colony is proposed. Thegenerated solution is based on the principal of

optimal solution that is found in the set of activeschedules. The values of different parameters weredetermined by experimental design.

The performance of the proposed heuristic was

compared with priority rules and meta-heuristics suchas Tabu Search and Simulating Annealing in thesolution of instances 5×5, 6×6 y 10×10 that had

their optimal solution reported in the literature.

Key words: meta-heuristics, ants colony

optimization, tabu search, job hhop scheduling.

1. INTRODUCCIÓNEn un mundo globalizado como el actual, para las

empresas manufactureras la forma de programar laproducción es muy importante porque les permite

aumentar la productividad y lograr la satisfacción desus clientes mediante el cumplimiento en los

compromisos de entrega de los pedidos sin incurrir

en costos innecesarios de almacenamiento.

Por otra parte, en nuestro medio es común encontrarambientes de trabajo tipo taller, que consisten en unconjunto de máquinas en las que se debe procesar un

determinado número de trabajos siguiendo un ordenpredeterminado. Aunque programar la producción entalleres parece un problema sencillo, dista mucho de

serlo y esta clasificado como NP-Hard según [1] y [2].

Dada la imposibilidad práctica de aplicarprocedimientos matemáticos que garanticen la

solución óptima en este tipo de problemas, se recurrea las meta-heurísticas ya que estas técnicasproporcionan soluciones buenas en tiempos

razonables. Las más conocidas son los algoritmosgenéticos, recocido simulado, búsqueda tabú y a partirde los años 90 Colonia de Hormigas (ACO).

Con respecto a Colonia de Hormigas, fue propuesta

por Marco Dorigo [3] para la solución de problemascombinatorios como el del agente viajero y el deasignación cuadrática [4] y se basa en la observación de

hormigas reales ya que estos insectos tienencaracterísticas de comportamiento que han llamado laatención de varios investigadores. Una de estas es la

capacidad de la colonia para encontrar la ruta más cortaentre el hormiguero y las fuentes de alimento a travésde cooperación y comunicación por estímulos.

Mientras hacen sus recorridos las hormigas dejan

un rastro de una sustancia química llamada feromonala cual es percibida por toda la colonia, así cuandotienen que escoger una ruta se deciden por aquella

que tenga el rastro más fuerte. Este también lespermite encontrar el camino de regreso al hormiguero(ó a la fuente de alimento) y transmitir esta

información a otras hormigas [5].

Colonia de Hormigas se implementa en este trabajoporque es más nueva que las otras meta-heurísticas, esprometedora, no se encuentran reportadas muchas

aplicaciones a situaciones de producción [6] [7],ninguna al problema considerado y porque es de tipoconstructivo (no necesita una solución inicial).

Es importante anotar que en esta investigación sepretende evaluar el efecto puro de la cooperación delos agentes (hormigas) que conforman una colonia

para encontrar buenas soluciones. Es por ello que en

Page 27: Revista Ingenieria Vo.14 No.1

Ingeniería26 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

26

26

Figura 1. Representación en grafo de un JSSPminimizando tardanza ponderada total en el caso de

tres máquinas y tres trabajos [8].

el algoritmo ACO diseñado no se consideran pasos

de mejoramiento local para las soluciones creadas,como si se hace en otras investigaciones. Losprocedimientos de mejoramiento local consisten en

realizar modificaciones sobre las solucionesobtenidas, por lo tanto cuando se reporta una buenasolución queda la duda si fue merito de la

comunicación y cooperación entre las hormigas ó delprocedimiento de mejoramiento local.

Para la implementación de colonia de hormigas se

adapto el algoritmo ACO general a la situación específicadel problema de programación de la producción entalleres, se codificó en lenguaje de C de computador y

con el programa obtenido se solucionaron problemasreportados en la literatura especializada para luego realizarlas comparaciones con otros procedimientos; reglas de

despacho, recocido simulado y búsqueda tabú

disponibles en el software LISA.

2. EL PROBLEMA DE PROGRAMA-CIÓN DE PRODUCCIÓN EN

TALLERES (JSSP)Un taller es un ambiente de producción en el que

los trabajos deben ser procesados mediantemúltiples operaciones que se realizan en diferentesmáquinas. Cada trabajo para ser procesado, debeseguir un orden (ruta) a través de las máquinas. Si laruta de todos los trabajos es la misma entonces setiene un ambiente Flow Shop.

Debido a que los talleres están diseñados parapermitir la flexibilidad, en ellos usualmente seproducen pequeñas cantidades de una gran variedadde artículos, incluyendo productos que sonindividualizados para cada cliente. Los bienes que soncomúnmente elaborados utilizando un ambiente tipotaller incluyen partes de máquinas, muebles, químicos,semiconductores y productos farmacéuticos.

En un problema de manufactura tipo taller detamaño m × n, hay m máquinas y n trabajos. Cadatrabajo tiene una secuencia de operaciones que indicael orden en que se procesan (la operación o

ij es la k-

ésima operación del trabajo j, y debe ser procesada enla máquina i), con un tiempo de proceso p

ij. Cada

trabajo puede tener un tiempo de inicio rj antes del

cual, ningún procesamiento del trabajo i puede llevarsea cabo y cada máquina puede tener un tiempo dealistamiento u

i antes del cual no se puede realizar

ninguna operación en ella. También existen un tiempode entrega para cada trabajo, d

j, y una medida de que

tan importante es comparado con los otros, wj. Estos

datos suelen ser de tipo entero. Además, cadamáquina solo puede procesar una operación al mismotiempo y solo una operación de cada trabajo puedeser procesada en cada máquina y sin permitir

interrupciones. La solución se expresa mediante unprograma que es la descripción de los tiempos en quedeben ser procesadas cada una de las operacionessatisfaciendo las restricciones.

En general, si se tienen m máquinas, n trabajos ycada uno requiere una operación en cada máquina,entonces existen n! formas diferentes de ordenar lostrabajos en cada una de las máquinas, por lo tanto elnúmero de máximo de soluciones posibles (si todasson factibles) esta dado por (n!)m. Por ejemplo, si sedeben procesar 10 trabajos en 10 máquinas, el númeromáximo de soluciones esta acotado por 3.95 × 10 65,esta cifra es mucho más grande que la edad estimadadel universo medida en milisegundos ó que el

número de Avogadro.

2.1 Representación gráfica del problema.

Una representación con grafos, G(N,A,B), comola mostrada en la figura 1 es útil para visualizar mejorel problema. En esté los nodos N representan lasoperaciones o

ij que se deben realizar sobre los n

trabajos (una operación oij significa el proceso del

trabajo j en la máquina i), los arcos continuos Arepresentan las rutas que debe seguir cada trabajo y lalongitud |(i,j) → (k,j)| = p

ij representa el tiempo de

proceso de la operación (oij ).

Sí se debenprocesar 10

trabajos en 10máquinas, el

número máximode soluciones

esta acotado por3.95 × 10 65.

¡Esta cifra esmucho más

grande que laedad estimada

del universomedida en

milisegundos!

B es el conjunto de arcos disyuntivos (punteadosbidirigidos), que conectan las operacionespertenecientes a diferentes trabajos pero se realizanen la misma máquina, formando un clíque.

Del nodo U salen las primeras operaciones en lasecuencia de cada uno de los n trabajos, cuyasoperaciones finales concurren a los n nodosterminales V

j. La longitud de la ruta más larga desde

el nodo U hasta el nodo terminal Vj representa el

tiempo de terminación del trabajo j.

3. METODOLOGÍATeniendo en cuenta las características del JSSP y de

ACO se diseño un algoritmo, factores de visibilidad yse propusieron formas de inicialización y deconstrucción progresiva de soluciones, basándose en

el principio que la solución óptima es un programa

Page 28: Revista Ingenieria Vo.14 No.1

Ingeniería27Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

27

27

generando en cada iteración un número aleatorio q

en el mismo intervalo. Si qo ≥q, la siguiente operaciónde la secuencia se escoge del conjunto Ω considerandola siguiente regla:

activo. Para medir la eficiencia del algoritmo ACO

propuesto, se buscaron en la literatura problemasempleados en estudios de comparación de los que seconoce la solución óptima [7]. Se seleccionaron el

ABZ5, ABZ6, LA16 – LA20 y el MT10, todosdisponibles en la OR–Library (http://mscmga.ms.ic.ac.uk/info.html). En la determinación

de los tiempos de entrega, dj, se utilizó la regla de

trabajo total (TWK) según la cual dj = k P

j, siendo P

j

la suma de los tiempos de proceso de las operaciones

del trabajo j y k un parámetro. Se asignaron tiemposde entrega con k = 1.3 y con k = 1.5.

También se generaron diez problemas de tamaño 5

× 5 y diez de 6 × 6, a los cuales por medio del programaLISA se les encontró la solución óptima aplicandoprocedimientos de ramificación y acotación. Tanto los

problemas generados como los obtenidos de laliteratura, se solucionaron por medio de reglas de lasdespacho; WSPT , EDD, SPT y LPT y de las meta-

heurísticas búsqueda tabú y recocido simulado delsoftware LISA, luego se corrieron en el algoritmo ACOcodificado en lenguaje de computador C utilizando

un computador Athlon 900 MHz con 256 megas dememoria RAM. Los resultados obtenidos se tabularon

para su posterior comparación y análisis.

3.1 Descripción del algoritmo ACO propuesto

En el algoritmo ACO se crea una colonia de hhormigas que construyen secuencias activas de los ntrabajos del problema en las m máquinas del mismo,

obedeciendo ciertas reglas. Se indica un númeromáximo de iteraciones (t

máx ) y en cada iteración cada

una de las h hormigas construye una solución activa

factible. Finalmente se reporta la mejor secuencia delas h × t

máx construidas durante todo el proceso.

Debido a la analogía en que se basa ACO, resulta

conveniente visualizar el problema mediante larepresentación de la figura 1 ya que el algoritmo loque hace es construir buenas rutas que conecten el

nodo inicial con los nodos terminales. Con el fin dedisminuir el número de búsquedas que realiza unahormiga en cada iteración, se crea un conjunto Ω[8]en el que se incluyen las operaciones que hacen quela secuencia que se construye sea activa y se escogeentre ellas de acuerdo con el rastro de feromonas Ω

i,j

y un factor de visibilidad fv. El factor que se utilizo enel presente trabajo esta definido por:

f vi,j

= rj + p

i,j - d

j (1)

y con él se pretende ayudar en la elección del

siguiente paso, dando prioridad a las operaciones queestén disponibles más rápido para ser programadasy que deben ser entregadas con mayor premura. Una

hormiga escoge el nodo al que se va a ir, fijando elvalor de un parámetro qo en el intervalo (0, 1), y

(2)

El subíndice l indica que la operación pertenece alconjunto Ω, mientras que α y β representan los

exponentes del rastro de feromonas y del factor devisibilidad. Según las recomendaciones de la literatura[5] [6], estos exponentes toman valores entre 1 y 4. Si

qo<q, entonces la siguiente operación en la secuenciase elige aleatoriamente del conjunto Ω. Para evitar caeren un óptimo local de forma prematura, se realiza una

“evaporación” de feromonas mediante unadisminución local del rastro τi,j dada por la Eq (3):

(3)

donde

(4)

ρ l es una medida del nivel de disminución ó

“evaporación” del rastro de feromona, τi j( t ), y su

valor esta entre 0 y 1.

Finalmente se evalúan las h secuencias halladasdurante la iteración y si el valor de la función objetivoen alguna de ellas es mejor que el que se tiene hasta el

momento, entonces se realiza la actualización delmejor valor encontrado para la tardanza ponderadatotal y para la respectiva secuencia. Después de

evaluadas todas las soluciones, se hace unaactualización global de la intensidad de τ

i j en la que

se incrementa este nivel para cada par de operaciones

ó nodos pertenecientes a la mejor secuencia de las hconstruidas durante la iteración. El incrementodepende de la calidad de la solución y se realiza de

acuerdo con la ecuación (5).

(5)

La magnitud del incremento del rastro de feromonas

esta dado por ρg , este parámetro toma valores en el

intervalo (0,1). TPT* es el valor de la función objetivo

correspondiente a la mejor secuencia de la iteración.

4. RESULTADOS Y DISCUSIÓN

Se presentan los resultados obtenidos en cada una

de las fases de la investigación.

4.1 Diseño de experimentos

Para determinar los valores de parámetrosexponente del rastro de feromona (α), exponentedel factor de visibilidad (β), parámetro de evaporación

donde

(6)

Page 29: Revista Ingenieria Vo.14 No.1

Ingeniería28 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

28

28

Figura 2. Superficie de respuesta (TPT) en función delos exponentes a (Alfa) y b (Beta).

PUNTO ααααα βββββ ρ ρ ρ ρ ρ l

ρρρρρg

qo

TPT

1 1.50 1.50 0.425 0.425 0.50 4433

2 1.952 1.50 0.425 0.425 0.50 5297

3 1.726 1.89 0.425 0.425 0.50 4616

4 1.726 1.63 0.79 0.425 0.50 5011

5 1.726 1.63 0.517 0.782 0.50 5364

6 1.726 1.63 0.517 0.496 0.85 4936

7 1.726 1.63 0.5157 0.096 0.64 4663

8 1.6.36 1.682 0.649 0.287 0.696 4871

9 1.599 1.70 0.60 0.167 0.284 5421

10 1.548 1.73 0.25 0.13 0.54 4771

Tabla I. Puntos estudiados con el diseño simplex

de feromona ( ρl ), parámetro de incremento de

feromona ( ρg ) y el número aleatorio (q

0 ), inicialmente

se aplico el método del descenso más rápido [10],

para ubicar la región donde se encuentra la respuesta

óptima. El diseño escogido fue un factorial de dos

niveles completo con dos replicas ya que es ortogonal

y permite un buen ajuste de superficies de primer

orden [11]. Para α y β el nivel bajo se fijo en 1 y el

nivel alto en 2, mientras que para los restantes

parámetros se fijaron 0.85 y 0.95 como niveles bajo y

alto respectivamente. Con los datos obtenidos se

realizo un análisis de regresión llegando a la siguiente

superficie de respuesta lineal para la tardanza

ponderada total TPT:

TPT = 3191+119α-161β+1086ρl -956ρ

g +989q

0 (7)

Para verificar la validez del supuesto de linealidad

de la superficie de respuesta, se realizó un análisis de

varianza obteniéndose un valor p de 0.89, indicador

de que la superficie lineal no es adecuada y por lo tanto

no es correcto aplicar el método del descenso más

pronunciado.

Se procedió entonces a aplicar un diseño de

experimentos simplex ya que permite acercase a la

región del óptimo de manera eficiente, [12]. Cada

combinación de parámetros se corrió cuatro veces.

Para la aplicación se toma como valor del paso

Δq0= 0.5. El simplex de partida esta formado por

los 6 primeros puntos de la tabla 1. Los puntos que

salieron son el 5, 2, 9 y 4 remplazados por 7, 8, 9 y 10.

procesing time (SPT). Los resultados son bastante

altos y no resultan competitivos frente a los obtenidos

por medio de las meta-heurísticas. En el mejor de

los casos el alejamiento de la solución óptima supera

el 20000%.

El valor de los parámetros se fijó de acuerdo al

punto que obtuvo la mejor tardanza ponderada total

(TPT) en promedio. En la figura 2 se ilustra la superficie

de respuesta en la región de los exponentes α y β.

4.2 Resultados obtenidos con

reglas de despacho

Se emplearon las reglas de despacho longest

procesing time (LPT), eaeliest due date (EDD),

weigthted shortest procesing time (WSPT) y shortest

Las mejores respuestas se obtuvieron el 65% de

las veces al aplicar la regla WSPT, seguida del regla

SPT con el 27 %. Esporádicamente alguna de las

otras reglas reportaba mejores soluciones. Teniendo

en cuenta los resultados no parece conveniente ubicar

en las primeras posiciones de las secuencias las

operaciones con tiempos de proceso grandes (por lo

menos formar cadenas grandes siguiendo esta

tendencia). Bajo esta observación se diseño el factor

de visibilidad de las hormigas.

4.3 Comparación de ACO frente a búsqueda

tabú y recocido simulado

Las meta-heurísticas búsqueda tabú y recocido

simulado utilizadas son las disponibles en el software

LISA. Para cada una de ellas se crearon 5000 soluciones

y el tiempo promedio de ejecución fue diez segundos.

En cuanto a colonia de hormigas, para los problemas

de 10×10 las corridas se hicieron con 15 iteraciones y

10 hormigas lo que da 150 soluciones creadas, el

tiempo promedio de cada procedimiento fue 130

segundos.

Para iniciar el procedimiento se empleo un tao

inicial (τ0) de 0.001 y los valores de los parámetros

son los que se determinaron mediante la

optimización por diseño simplex (puntos 1 y 10 de

la tabla 1). Para los problemas de 5 × 5 y 6 × 6 se

emplearon 10 hormigas y se realizaron 50 iteraciones

con lo que el tiempo de ejecución fue de dos minutos

20 segundos sin prácticamente ninguna variabilidad.

La diferencia en el número de iteraciones esta

claramente justificada por el consumo de tiempo

computacional.

Para analizar los resultados se elaboró un indicador

llamado relación de calidad para las soluciones

alcanzadas, el cual se define como la división entre el

valor de la solución obtenida y el óptimo reportado.

De esta forma, si un procedimiento permite encontrar

la solución óptima el valor reportado del factor de

calidad es 1. Si el valor óptimo reportado es 0 y la

Page 30: Revista Ingenieria Vo.14 No.1

Ingeniería29Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

29

29

solución obtenida con la meta-heurística es diferente,

entonces se deja indicada la división.

4.3.1 Problemas de 5 × 5

De los resultados reportados en la tabla II se puede

observar que la meta-heurística que reportó los mejores

resultados es la búsqueda tabú (BT), encontró el

óptimo el 90 % de las veces. La colonia de hormigas

(ACO) acertó un 60% y recocido simulado (RS) el

50%. También es notorio que los peores resultados

son los logrados con este último procedimiento,

reportando la peor solución en la mitad de los

problemas considerados. En tres ocasiones se

presentan empates entre los tres procedimientos.

Tabla II. Relación de calidad(valor solución / óptimo), problemas 5 × 5

PROBLEMA ACO BT RS

1 1 1 1

2 1.05 1 1

3 1.46 1.11 2.10

4 1.17 1 1

5 1 1 653/0

6 1 1 1

7 1 1 2.82

8 33/0 1 160/0

9 1 1 1

10 1 1 137/0

% de óptimos 60 90 50

Tabla III. Relación de calidad(valor solución / óptimo), problemas 6 × 6

PROBLEMA ACO BT RS

1 1.24 1.11 1.55

2 1.61 1.54 2.44

3 2.24 1.36 4.66

4 2.64 1.39 6.33

5 1 1 20/0

6 2.02 1.14 4.28

7 1.99 1.15 3.55

8 8.02 1.01 14.90

9 1 1 72/0

10 323/0 1 2760/0

% de óptimos 20 30 0

4.3.2 Problemas de 6 × 6

Las soluciones de más alta calidad siguen siendo

las obtenidas con búsqueda tabú, aunque el

porcentaje de óptimos hallados disminuyo a un 30%.

Sin embargo en todas las ocasiones estuvo bastante

cerca de alcanzar la solución óptima. Por otra parte,

los resultados obtenidos con colonia de hormigas

son claramente superiores a los del recocido simulado

y competitivos con los obtenidos al aplicar la

búsqueda tabú. Es notorio que con recocido

simulado nunca se encontró la solución óptima. Los

resultados se reportan en la tabla III.

4.3.3 Problemas de 10 × 10

Al incrementar significativamente el tamaño de

los problemas con ninguno de los procedimientos

se logró obtener soluciones óptimas, pero los

mejores resultados siguen siendo los obtenidos con

búsqueda tabú.

Cuando el factor k es 1.3, tabla IV, el recocido

simulado (a diferencia de los problemas 5×5 y 6×6)

muestra un mejor desempeño promedio que

compite con el de colonia de hormigas. En el 50% de

las veces, colonia de hormigas supera a recocido

simulado y a su vez es superada en la restante mitad

de los problemas analizados. Solamente en un

problema la búsqueda tabú es superada por colonia

de hormigas y recocido simulado.

Tabla IV. Relación de calidad(valor solución / óptimo), problemas 10 × 10 con k = 1.3

PROBLEMA ACO BT RS

ABZ 5 3.87 1.76 1.76

ABZ 6 2.00 1.90 2.20

MT 10 6.39 3.11 5.56

LA 16 5.05 1.52 2.95

LA 17 6.40 3.28 5.42

LA 18 5.83 3.02 6.98

LA 19 3.38 3.52 4.32

LA 20 4.40 6.41 4.40

Tabla V. Relación de calidad(valor solución / óptimo), problemas 10 × 10 con k = 1.5

PROBLEMA ACO BT RS

ABZ 5 34.8 2.78 42.2

ABZ 6 4192/0 317/0 2878/0

MT 10 5.3 5.3 7.1

LA 16 27.5 10.7 20.8

LA 17 13.3 6.46 9.1

LA 18 98.4 77.8 38.5

LA 19 134 58.1 261

LA 20 4141/0 3354 4885

La tabla V muestra los resultados cuando el valor

k se incrementa a 1.5. Con búsqueda tabú siguen

reportándose los mejores valores de tardanza

ponderada total. Es evidente que la calidad de las

soluciones decreció y la colonia de hormigas y el

recocido simulado no muestran diferencias

significativas en cuanto a la proporción de veces que

uno supera al otro.

5. CONCLUSIONES

Para problemas de tamaño 5×5 y 6×6 la meta-

heurística colonia de hormigas reporta resultados

competitivos frente a la de búsqueda tabú, la cual a

su vez es la mejor de las analizadas.

Como era de esperarse con el tamaño aumenta la

dificultad del problema, en los problemas de 5×5 se

Page 31: Revista Ingenieria Vo.14 No.1

Ingeniería30 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

30

30

logra encontrar el óptimo el 60% y 90% de las veces

con colonia de hormigas y búsqueda tabú

respectivamente. En los problemas de tamaño 6×6

esta proporción disminuye para las mismas meta-

heurísticas a 20 % y 30% y en los de 10×10 nunca se

encuentra la solución óptima.

Al aumentar el valor del factor k empleado para la

generación de los tiempos de entrega, se vuelve más

difícil encontrar la solución óptima. Esto se evidencia

observando el factor de calidad (a menor valor mejor

solución) el cual es mayor para problemas generados

con k = 1.5 que para los generados con k = 1.3.

Para los problemas de tamaño cinco y seis, colonia

de hormigas proporciona soluciones de prácticamente

la misma calidad que búsqueda tabú y es superior al

recocido simulado.

Para problemas grandes el algoritmo de colonia de

hormigas sin incluir pasos de mejoramiento local para

las soluciones obtenidas, no resulta competitivo frente

a la búsqueda tabú si se consideran a la vez el tiempo

de ejecución y la calidad de las soluciones.

Los resultados obtenidos por colonia de hormigas

son alentadores y estimulan nuevas investigaciones,

dado que con solo 150 soluciones generadas es

competitiva frente a la búsqueda tabú (en problemas

pequeños) y superior a recocido simulado,

considerando que en estas dos últimas se prueban

de a 5000 soluciones.

El efecto cooperativo de la colonia de hormigas

no es suficiente para construir buenas soluciones,

por ello se espera que al incluir pasos de

mejoramiento local para las soluciones, la calidad de

las soluciones se incremente de forma significativa.

6. REFERENCIAS BIBLIOGRAFÍCAS[1] Lenstra Jk, Rinnoy Kan AHG, Bruckner P. Complexity of machine

scheduling problems. In: Hammer PL, Johnson EL, Korte BH,nemhauser GL (eds) Studies in Integer Programming, Annals ofDiscrete Mathematics 1. North- Holland, Amsterdam, 1997, pp343- 362.

[2] Graham, R. ; Lawlwer, E :L ; Lenstra, J.K ; Rinnoy Kan A.H.G.Optimization and approximation in deterministic sequencing andscheduling ; A survey, Annals of Discrete Mathematics 5, 1979,pp 287 – 326.

[3] Dorigo M. Optimization, Learning and Natural Algorithms (inItalian). PhD thesis, Dipartimento di Elettronica e Informazione,Politecnico di Milano, IT, 1992.

[4] Gambardella L.M. and Dorigo M. Ant colonies for the travelingsalesman problem. BioSystems, 43, 1997, pp. 73-81.

[5] Deneubourg Jl, PasteelsJm and Verhaeghe JC. Probabilisticbehavior in ants: a strategy of errors? J Theor Biol 105, 1983, pp.259-271.

[6] Bauer A., Bullnheimer B., Hartl F. and Strauss C. Minimizing totaltardiness on a single machine using Ant Colony Optimization.Cejor 8, 2000, pp. 125-141.

[7] Gagne C., Gravel M & Pric W I. Comparing an ACO algorithm whitother heuristics for the single machine scheduling problem withsequence dependent setup times. Journal of the OperationalResearch Society. 53, 2002, pp. 895 – 906

[8] Pinedo M. & X.Chao. Operations Scheduling With Applications inManufacturing And Service. Boston: Irwin/McGraw-Hill, 1999.

[9] Pinedo,M. & Singer, M. A shifting bottleneck heuristic for minimizingthe total weighted tardiness in a job shop., Naval ResearchLogistics; 46, 1999, pp.1–17.

[8] Bauer A., Bullnheimer B., Hartl F. and Strauss C. Minimizing totaltardiness on a single machine using Ant Colony Optimization.Cejor 8, 2000, pp. 125-141.

[9] Gagne C., Gravel M & Pric W I. Comparing an ACO algorithm whitother heuristics for the single machine scheduling problem withsequence dependent setup times. Journal of the OperationalResearch Society. 53, 2002, pp. 895 – 906

[10] Montgomery D. C. (1997). Design and Analisis of Experiments,United States. Jhon Wiley & Sons.

[11] Cox G M and Cocharan W. Diseños experimentales. Jhon Wiley& Sons, 1965.

[12] Villaveces J. La optimización de procesos con ayuda del simplex.Química e Industria 13, 1987, pp. 2-14.

Oscar Yecid Buitrago SuescúnIngeniero Químico de la Universidad Nacional de Colombia, sede

Bogotá. Magíster en Ingeniería Industrial en la Universidad de losAndes. Se desempeñó como profesor en la Universidad de Boyacá

durante 3 años, donde ganó el premio al Merito Investigativo. Actual-

mente se desempeña como profesor en el área de Investigación de

Operaciones y Producción en la Universidad Central de Bogotá ypertenece como investigador al grupo CIPO.

[email protected]

Rodrigo Alberto Britto AgudeloIngeniero Químico de la Universidad Nacional de Colombia, sede

Bogotá. Magíster en Ingeniería Industrial en la Universidad de losAndes. Se desempeñó como profesor de la Facultad de Administra-

ción de Empresas de la Universidad de los Andes (a la cual esta

vinculado). Actualmente adelanta estudios de Doctorado en Logísti-

ca en la Universidad de Maryland en los Estados Unidos. [email protected]

Gonzalo Mejia DelgadilloIngeniero Mecánico de la Universidad de los Andes. Magíster en In-

geniería Mecánica en la Universidad de los Andes. PhD en Ingeniera

Industrial en la Universidad Lehigh de Pensilvania, Estados Unidos.

Actualmente se desempeña como profesor Asistente del Departa-mento de Ingeniería Industrial de la Universidad de los Andes en el

área de Producción y pertenece como investigador al grupo PYLO

donde realiza investigaciones sobre Producción y Logística

[email protected]

Page 32: Revista Ingenieria Vo.14 No.1

Ingeniería31Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

31

31

1 y 2 Profesores Facultad de In-

geniería de la Universidad

Distrital Francisco José deCaldas. Bogotá, Colombia.

Miembros del grupo de In-

vestigación GICOGE.

3 Profesor Facultad de Infor-mática de la Universidad

Pontificia de Salamanca

campus de Madrid - Espa-

ña. Director del grupo de

investigación: Ingeniería delSoftware y Sociedad de la

Información y el Conocimien-

to, Universidad Pontificia de

Salamanca.

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Sandro JavierBolaños Castro 1

Víctor HugoMedina García 2

Luis Joyanes Aguilar 3

ResumenEn este artículo se presenta una propuesta para

una ingeniería de software basada en la premisa deestablecer un conjunto de principios necesarios paraformalizar un cuerpo de conocimiento guiado nosolo por actividades de trabajo, métodos y técnicassino también fortalecida por propiedades que en efectopuedan ser utilizadas y aplicadas sin que hayadiscriminación en el tipo de proyecto que se realice.

Palabras clave: Ingeniería de Software, Proyecto,Principios, Formalización.

Principles for the Formalization ofSoftware Engineering

Abstract

In this article a proposal is presented for a softwareengineering based on the premise of establishing anecessary set of principles to formalize a body ofknowledge guided not alone for work activities,methods and technical but also strengthened byproperties that indeed can be used and appliedwithout there is discrimination in the project typethat it is carried out.

Keywords: Software engineering, Project,Principles, Formalization.

1. INTRODUCCIÓNLos procesos de software, que se constituyen como

una de las principales herramientas para haceringeniería de software, deben plantear el desarrollocomo un proceso guiado no solo por un conjuntode actividades de proceso, sino que además debenapoyarse en un cuerpo teórico de principios y leyesque permitan articular las tareas de manera formal ycontrolada. Este planteamiento releva el individuosin descuidar la organización y la naturaleza singulardel producto. La responsabilidad de los flujos detrabajo y actividades no solo debe estar en suministrarun método de desarrollo, aún más importante esestablecer criterios formales del manejo de lacomplejidad, incertidumbre, corroboración,singularidad y la rastreabilidad del conocimiento queconstituye el insumo fundamental en el proceso.

La propuesta que se presenta pretende impactarlas formas convencionales de desarrollar software y

con ello replantear los enfoques clásicos que en cuantoa procesos se hacen en ingeniería de software. Estotraería consecuencias favorables como la disminuciónde fracasos en desarrollo, el manejo del softwarecomo conocimiento, fortalecimiento del cuerpo deconocimiento de la ingeniería de software,tratamiento del problema a diferentes niveles de laorganización, integración de disciplinas, vista holísticade los problemas de desarrollo, desarrollo deproductos de calidad, entre otras.

2. EL MÉTODO COMO INSTRU-MENTO FUNDAMENTAL ENINGENIERÍA DE SOFTWARE

Las metodologías y procesos de desarrollo desoftware, han suplido por un espacio de tiempoimportante las necesidades de abordar problemas dedesarrollo de productos informáticos, sin embargoexiste gran evidencia, que no han sido suficientes paradar soluciones satisfactorias a la gran diversidad ycomplejidad de los retos que se plantean en ladisciplina. Existe una lucha fuerte de propuestas quepasan desde el formalismo y dogmatismo como loscasos de CMMI, PSP y TSP, entre otros; hasta laspropuestas ágiles y pragmáticas como Scrum [1], XP[2], Cristal [3], Evo [6], ASD [7], DRA [13], entreotros. Cada estilo de proceso o metodología reclamapara si la supremacía y la verdad en cuanto a desarrollose refiere. Lo cierto es que no hay un santo grial deproceso y parecería incluso que el problema no estaen las actividades que se desarrollen sino en un faltanteque no se encuentra en el proceso en si, quizá cuandoKarl R. Popper afirma: “Por regla general, empiezo mis

clases sobre el método científico diciendo a mis alumnos que

el método científico no existe… Solo hay problemas y el

impulso de resolverlos…” [12]. Se nos esta planteandoun importante cuestionamiento en la mismautilización de los procesos y metodologías.

Sin bien es cierto, los procesos y másespecíficamente las actividades de proceso configuranun cuerpo disciplinar fundamental para resolver losproblemas en esta área, también es cierto que estadisciplina en particular adolece de un componentecientífico de facto que le permita explorar de maneraformal y con experimentación directa los fenómenosque se presentan en ella. Mientras el método científicoen la mayoría disciplinas es de uso directo en ingenierade software no es tan evidente, al fin de al cabo el

Principios para la Formalizaciónde la Ingeniería de Software

Page 33: Revista Ingenieria Vo.14 No.1

Ingeniería32 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

32

32

método científico permite seguir una rutina basadaen fenómenos evidenciables y perceptibles de formanatural, en tanto que la disciplina del software eseminentemente artificial.

3. PRINCIPIOS PARAINGENIERÍA DE SOFTWARE

Los procesos de desarrollo de softwaredefinitivamente no se pueden dejar de lado, en lugarde ello se deben fortalecer, es decir se debe armar uncuerpo disciplinar soportado en conjunto deprincipios, que permitan ajustar los problemas demanera formal, sin ambigüedades, dejando de ladola especulación y las prácticas ad hoc.

Los defectos más comunes de los procesos estánen considerar una serie de prácticas que funcionaronen determinadas situaciones. Pero no pasan de serprácticas, que tarde o temprano no tendrán sentidoen escenarios diferentes. Las tendencias sobre todode los métodos heterodoxos están muy ligadas a laimportancia que se da a las personas, el mismomanifiesto ágil propone: “Los individuos y lainteracción por encima de los procesos yherramientas”. Y no es que las personas no seanimportantes en la búsqueda del conocimiento, lo quees un punto débil es que el método de llegar alconocimiento dependa de la persona, la disciplinapor si sola debe brindar los mecanismos formalesque permitan seguir la senda al conocimiento, en estecaso la senda al desarrollo. En otros palabras los

fenómenos suceden para su naturaleza intrínseca y no por al

interpretación de subjetiva de las personas que lo experimentan.

Apuntando en la dirección de dar una directriz a ladisciplina de software se formulan cinco principiosfundamentales que restringen de manera formal elque hacer en esta área del conocimiento, así:

con gran certidumbre. En el dominio del problemahay más preguntas que respuestas, mientras en eldominio de la solución hay más respuesta quepreguntas, por lo menos con respecto al problemaresuelto. En este orden de ideas es de suponer que elejercicio de desarrollar software esta en ir eliminandopaulatinamente la incertidumbre para acercarse a lacertidumbre permitida que nos de la solución. Eneste camino es de esperarse que se busquen mecanismosque faciliten el entendimiento del problema.

Aparecen dos constantes importantes las preguntas

y las repuestas. Por un lado las preguntas se originande las posibilidades que puede tomar un problemamientras las respuestas se originan de las solucionesque se pueden adoptar ante un problema. Laspreguntas son necesarias y pertinentes para resolverun problema, de no ser así tendríamos un problemapredecible en donde no hay mas posibilidades que laobtenida en un primer razonamiento.

Por ejemplo, un algoritmo generalmente esta dotadode preguntas pues es implícito en el las posibilidadeso decisiones que se pueden adoptar ante unproblema. El problema no radica en eliminar laspreguntas, aunque sería bastante provechoso, sinomás bien ante la inminencia de estas, realizar lasmejores preguntas y que apunten a los orígenes delproblema, cuyas soluciones necesariamente redundenen la solución del problema. Como premisafundamental de las preguntas se podría plantear:

• Todo problema por la inminencia de la incertidumbre

produce preguntas.

• Si hay ausencia de preguntas por la naturaleza particu-

lar del problema, se tiene entonces un estado de certeza.

Por su parte las respuestas son el resultado de laspreguntas o de los estados de certeza de unproblema. Estas deben ofrecer la solución a unproblema. Desde otro punto de vista Se podríaplantear que un problema se evidencia a través de laspreguntas; mientras la solución se evidencia a travésde las respuestas. Bajo esta consideración es deesperarse entonces que necesariamente, o por lomenos en su gran mayoría se produzca la duplapregunta-respuesta. Desde un planteamiento deductivopodría pensarse en un marco de trabajo en donde nose vean problemas sino simplemente soluciones portanto se eliminaría el complejo mundo de laspreguntas, sin embargo este mecanismo es muchomas complejo aunque no lejano del software.

Las respuestas están en el lado de la solución peroson originadas por preguntas o son en esencia un estadode verdad transitorio para un problema. En este ordende ideas se podrían plantear en la siguiente premisa:

• Toda respuesta o proviene de una pregunta o de un

estado transitorio de verdad.

Figura 1. Principios para la formalización de laIngeniería de Software. Fuente: Los autores.

3.1 Balance de la Incertidumbre

El desarrollo de software es un ejercicio creativo enel que se parte de un dominio del problema con granincertidumbre para llegar a un dominio de la solución

Balance de laincertidumbre

Principios parala formalizaciónde la Ingeniería

de Software

CorroboraciónComplejidadcontrolable

RastreabilidadSingularidad

Page 34: Revista Ingenieria Vo.14 No.1

Ingeniería33Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

33

33

El desarrollo de un problema basado en unesquema lógico de programación sugiere que serealicen preguntas y respuestas, las cuales posibilitanque la transición de estados contenga la lógica necesariapara mostrar una solución. Ante estas evidencias valela pena cuestionarse sobre la correlación que debentener las preguntas y las repuestas, y producto de estacorrelación podrían originarse los siguientesplanteamientos:

1) ¿Una pregunta debería originar una sola respuesta?

2) ¿Una pregunta debería originar varias respuestas?

3) ¿Varias preguntas deberían originar una sola res-puesta?

Si se evalúa el segundo planteamiento se podríapensar en que el problema expresado en una únicapregunta es resuelto a través de varios repuestas delas cuales alguna de ellas satisfacería la pregunta osimplemente de manera oculta de lo que se disponecomo aparentes respuesta es de un protocolo en elque todas las aparentes repuestas hacen parte de unmisma solución. En el primer caso el problema puedeser resulto con una de las respuestas en el segundocon la suma de todas las respuesta.

En el tercer planteamiento se estaría ante unasituación en la que se podría pensar en una respuestainteligente capaz de proveer la solución a varioscuestionamientos, o simplemente se estaría ante laevidencia de la redundancia de preguntas que conducea la misma repuesta. En el primer caso en el que larespuesta es una conclusión inteligente que resuelvevarios cuestionamientos se esta ante un abstracciónfuerte del problema en el que se debería descartar laredundancia, es de manejo cuidadoso pues las posiblescombinaciones lógicas de las preguntas pueden apuntara soluciones diversas que no se han visto con facilidad,cabe preguntarse además del espectro de las preguntasque se solucionan con una única respuestas, cual es sucomplemento pues en el puede haber elementosocultos de la solución del problema. Por otro ladopuede existir redundancia de preguntas y ante lo queparecen varios cuestionamientos puede resultar másbien malos planteamientos.

El segundo y tercer planteamiento apuntan a unreflexión importante, ¿están en la muchas preguntaso muchas respuestas reflejado verdaderamente unproblema de redundancia que debería ser normalizadopara logran un balance en el que las preguntas podríancorresponder uno a uno con las respuestas? Y no esporque se trate de eliminar la riqueza de la pregunta ode la respuesta; más bien de lo que se trata es deconverger los cuestionamientos y las soluciones. Estotrae ventajas en el manejo de la situación problemica.Pensemos en algunos ejemplos:

1) a.¿Qué número resulta de 10/2?b. ¿Cuál es el numero de dedos de una mano?

Las anteriores preguntas motivan una respuesta elnúmero 5. Esta redundancia de preguntas podríacentralizarse en una sola preguntas similar a: ¿Cual esla mitad de los dedos de la mano? dentro de la cual seexpresa las preguntas a y b.

2) ¿Cuál es el conjunto de 5 números naturales? res-puesta que origina un conjunto infinito. Podríanormalizarse a al conjunto {1, 2, 3, 4, 5}.

En las dos consideraciones anteriores se puede verel concepto pregunta respuesta, además como sepuede generar la normalización de la repuesta o lapregunta; esta normalización que produce asignaciónuno a uno de preguntas y respuestas es lo que sedenomina equilibrio del balance de la incertidumbre.Una buena forma de seguir el progreso del desarrollode software es la de estimar el balance este puede serde tres formas, tal y como se ilustra en la Fig. 2.

Figura 2. Balance de Incertidumbre.Fuente: Los autores.

a.

b.

c.

3 ?

1 !

1 !

3 !

1 ?

1 ?

El primer tipo debalance, aquel en el cualpesan más laspreguntas que lasrepuestas, este tipo debalance es de altaincertidumbre, existenmás preguntas querespuesta y puededesencadenar difícilmanejo en losdesarrollos. El tipo de

Figura 3. Software como producto.Fuente: Los autores.

proceso sino el producto.Querer desarrollar un productode software por medio de unproceso atado a ideasconvencionales puede ser lafuente del problema. El softwarees un producto con propiedadesparticulares (ver Fig.3).

balance en donde las preguntas coinciden con lasrepuestas es el tipo de balance equilibrado el cual es elmás aconsejado como medio de atacar laincertidumbre, pues cada interrogante tiene susolución. El tercer tipo de balance en el que es de mayorpeso las repuestas que las preguntas, generalmenteobedece a un conjunto de respuestas que hacen partede protocolos o de respuestas múltiples. El mejorbalance es el equilibrado pues se tiene unacorrespondencia uno a uno del problema y la solución.Para lograr balancear equilibradamente el software esnecesario eliminar la redundancia en las preguntas oen las respuestas con nuevas preguntas o nuevasrespuestas mejor establecidas.

3.2 Singularidad

El debate sobre las metodologías y procesos dedesarrollo puede tener tanto de ancho como deprofundo, quizá el problema en si no lo constituya el

Page 35: Revista Ingenieria Vo.14 No.1

Ingeniería34 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

34

34

Figura 4. Cercanía de las ciencias fácticasy formales. Fuente: Los autores.

uso del software; uno como la unidad funcional parala que fue creado y otro como un unidad componentede un sistema mayor, propiedad poco común en otrosproductos. Al ser este, producto del raciocinio y lalógica también es posible pensarlo como el productode la creatividad y la innovación características que lohacen relevante frente a otros productos.

Infortunadamente el software no se puede oler,ver, tocar o saborear convencionalmente pero si se lepueden asociar propiedades similares, esto a travésde sus modelos en diseño e implementación, no esfácil pensar en medir un programa de hecho la mismamedida resulta ser bastante relativa, aunque se puedeasociarle al software el peso, como el número de bytesque contenga, lo que generalmente se conoce como eltamaño, este no necesariamente es un índice decalidad, tan solo es un índice de almacenamiento. Lafísica, la biología y la química como disciplinas fácticasno pueden ser asociadas al software comoconvencionalmente se hace con otras disciplinas deingeniería, lo más cercano son las ciencias formales:matemáticas, y sobre todo la lógica (ver Fig. 4).

• No es perceptible a los sentidos: es decir no sepuede oler, degustar, tocar ver u oír, es unarepresentación que existe en otros medios dealmacenamiento y reproducción.

• Vive en el mundo binario y no se ajusta en sunaturaleza misma a leyes fácticas.

• Es replicable fácilmente por tanto es fácil de re-producir.

• No se degrada aunque si se pueda desactualizar.

• Puede ser integrado y crear complejidades mayores.

• Es consecuencia de la lógica y el raciocinio.

Al ser el software imperceptible a los sentidos sepierde el poder de experimentación que podríarealizarse directamente sobre él, por lo menos laexperimentación convencional apoyada en las cienciasfácticas. El software entra mas en la categoría de unente formal producto de nuestro pensamiento y porende obedece a él. Como su nicho es la representaciónbinaria no se puede controlar con un ciencia fáctica portanto sigue mas en el terreno de lo formal. Se puedereplicar fácilmente por tanto su producción es una solavez. Como no se degrada, su ciclo de vida depende dela vigencia que pueda tener. Al ser integrado para crearcomplejidades mayores es escalable. Como esconsecuencia de la lógica y el raciocinio depende deldesarrollo paradigmático con el que se cuente.

Estas características pueden ser benéficas o no si secompara con un producto convencional. Por ejemploun producto que se puede manipular con los sentidoses predecible y manejable a través de disciplinas fácticascomo la biología, química, y la física, sobre el softwareno se puede hacer un experimento directo que se ajustea la ciencias básicas por tanto se pierde la fortaleza queesa experimentación puede dar, se debe entoncesformular un ente formal que sea la representación delsoftware y sobre el deducir comportamientos y leyes.Por su puesto esto es una tarea que reúne una grancomplejidad. El que el software viva en el mundobinario tiene sus pros y contras, el espacio de problemapor lo menos se sabe es restringido a este dominiopero quizá lo poco o mucho que hay al respecto pareceno ser suficiente para controlarlo. El que sobre elsoftware se haga replica con facilidad es una ventajacon respecto a un producto convencional, mientras elfabricar un producto convencional requiere de uncomplejo logístico que se debe utilizar una y otra vez;con el software no sucede, tan solo es necesario que seproduzca una vez, pues después se replica con mediosde reproducción de la lógica implantada. Al nodegradarse el software no se le puede hacer un conteode depreciación como sucede con un productoconvencional esto es una gran ventaja pues este efectonegativo se puede evitar, el concepto mas parecido esel de desactualización que por su puesto sucede concualquier otro producto. El que posibilite la integraciónpara crear complejidades mayores permite un doble

3.3 Complejidad Controlable

Desarrollar software implica un grado decomplejidad considerable que se encuentra presenteen todas y cada una de las actividades de proceso quese realicen para alcanzar este objetivo. Estacomplejidad puede ser vista así:

CTP ≥ Σ ≥ Σ ≥ Σ ≥ Σ ≥ Σ CAPi

La complejidad del proceso CTP, es mayor o porlo menos igual a la sumatoria de las complejidadesde las actividades de proceso i, CPAi. Es de esperareste razonamiento si se tiene en cuenta que la sumade las partes es mayor u igual al todo.

Teniendo en cuenta todas y cada una de lasactividades principales del proceso la complejidadpuede ser vista como:

Σ CAPi = Cingdereq

+ Cdiseño

+ Cimplementacion

+ Cprueba

+

Cmantenimiento

Las complejidades de requerimientos, diseño,implementación, prueba y mantenimiento se puedenver como:

Cingdereq

≥ Ccomunicacion

+ Crepresentacion

Page 36: Revista Ingenieria Vo.14 No.1

Ingeniería35Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

35

35

Cdiseño

≥ Carquitectura

+ Cdiseñodebajonivel

Cimplementacion

≥ Clenguaje

+ Cparadigma

+ Calgoritmo

Cprueba

≥ CelabDeExperimentos

+ CaplicDeExperimentos

Cmantenimiento

≥ Cestabilizacion

+ Cmejoramiento

Los retos fundamentales de la complejidad derealizar la ingeniería de requerimientos están centradosen la comunicación y la representación. Por un lado lacomunicación implica un proceso complejo deinteracción de seres humanos y sistemas. No sepueden asumir que la obtención de requerimientosse reduce a la aplicación de métodos convencionalescomo: encuestas, entrevistas, cuestionarios, entreotras técnicas comunes. Los intereses y demásfenómenos que se producen por la relación queentablan las personas en la constitución de sistemasson de una índole amplia por involucrar personas ysistemas artificiales; que se han resumido en una vistaparcializada desde la perspectiva de la ingeniería, sinabordar el problema desde la dimensión humanaque resulta siendo en últimas la mas importante.Los sistemas que se desarrollen son para y por laspersonas, en esta dimensión un problema deberíaabordarse en un amplio espectro que involucre unaelaborada sinergia de las disciplinas humanas y deingeniería. Cuando se ha resuelto el problema decomunicación es necesario resolver el otro problemafundamental, el cual se encuentra en la necesidad dela representación. A pesar de tener frameworks ymétodos de análisis y modelado de requerimientos,como por ejemplo los casos de uso [8], las historiasde usuario [2], entre otras. Seria optimista pensarque estas herramientas son suficientes para resolverel problema de representación. La representación exigeque sea fiel a lo representado y que a su vez sea simple.Sumar simultáneamente estas dos características noes sencillo, si se tiene en cuenta que un modelo fiel alo planteado involucra complejidad y por el contrarioun modelo simple termina siendo incompleto. Pareceque las dos propiedades necesarias de representaciónentran en conflicto. Queda aquí un reto importantede revisar, que una vez resuelto puede llevarnos a ungran avance en ingeniería de requerimientos.

Por su lado el diseño tiene una complejidad en laarquitectura y el detalle. La arquitectura como disciplinaemergente tiene sus propios retos, pero quizá se debaprestar atención a la necesidad de contar con modelosestandarizados que sirvan como mapas de navegación,al respecto hay importantes aportes, Shaw y Garlan[14] apunta a una clasificación de alto nivel de posiblesmodelos arquitectónicos, el trabajo de la pandilla delos cuatro GoF [5], es otra importante aproximaciónal problema. Los lenguajes MIL y ADL1 también sonun importante esfuerzo al respecto incluso UML 2.0

[8] se ha preocupado por dar soporte al problemaÚltimamente MDA [9] y el estándar MOF2.Afortunadamente se es conciente de la necesidad deaproximar el modelo expresado en lenguajesarquitectónicos a los modelos expresados en lenguajesde programación. Gran parte de la confianza en hacerarquitectura se centra precisamente reducir la distanciaque tiene el modelo del diseño y el modelo de laimplementación. Como en la práctica los modelos dela implementación son los funcionales, le reducen granimpacto a los modelos arquitectónicos. Podríaplantearse entonces el por qué mejor no evitarlos, siterminan distando de los modelo que realmentefuncionan. Infortunadamente los modelos deimplementación requieren detalles en los cuales espeligroso entrar en fases tempranas del desarrollo.

La complejidad de la implementación tiene su fuenteen los leguajes de programación los paradigmas y losalgoritmos. Si todo fuera tan sencillo como antes de latorre de babel, sin embargo la diversidad de lenguajesde programación y plataformas de desarrollo alcontrario de hacerle un bien a la disciplina, produceproblemas como la portabilidad la incompatibilidadentre otras. Un lenguaje es complejo desde la mismasintaxis, pasando por los mecanismos de gestión dememoria hasta la interpretación de los paradigmas.Los paradigmas de desarrollo similarmente a loplanteado por Tomas Kuhn [10], recurre a un conjuntode teorías, métodos y prácticas para la representaciónde un problema en términos de un lenguaje de altonivel. A pesar de contar con nivel importante deabstracción los lenguajes aun distan de parecerse allenguaje natural, el camino recorrido desde la expresióndel sistema computacional al lenguaje natural, aun seencuentra corto. De ahí la necesidad de otrosmecanismos y niveles de abstracción. Finalmente losalgoritmos introducen su propia complejidad, alrespecto hay importantes estudios sin embargo estogeneralmente apuntan en una dirección, el rendimientoque pueden producir, abandonando otras perspectivascomo la facilidad de mantenimiento, escalamiento,portabilidad entre otras propiedades.

La prueba es una actividad de proceso que consumegran parte de los recursos del desarrollo, inclusoinvirtiendo grandes recursos es imposible realizartodo el conjunto de pruebas posible [11]. Hay unimportante trabajo al respecto, pero gran parte delesfuerzo termina siendo labor personal, evidencia deque la disciplina de pruebas se debe formalizar nosolo en su aplicación sino que además debe fortalecersu cuerpo de conocimiento. Lo que deberíafortalecerse para mejorar esta actividad de proceso, esla planificación disciplinada del diseño deexperimentos, teniendo en cuenta que la prueba sepuede establecer como un experimento. Los

1 Lenguajes de interconexión modular y lenguajes de descripción arquitectónica [13]. 2 MOF meta-object facility, http://www.omg.org/technology/documents/formal/mof.htm

Page 37: Revista Ingenieria Vo.14 No.1

Ingeniería36 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

36

36

experimentaos configuran un conjunto de pruebascon el objetivo de generar datos, que al ser analizadosestadísticamente, proporcionan evidencias objetivasque permitan resolver los interrogantes planteadospor el experimentador, sobre determinada situación[4]. El diseño de experimentos permite la introducciónde la estadística con la cual es posible formalizar laprueba, el uso de un estadístico genera un nivel deconfianza elevado a una disciplina que aun tienemuchos elementos de subjetividad. Una vez se hayadiseñado el experimento es necesario aplicarlo, estopuede ser tan complejo como el mismo diseño, peroes en últimas la aplicación la que resulta trascendente,pues es con ella que se pone a prueba las hipótesis quese formulan. Las pruebas de software tienen un graningrediente científico en el diseño de experimentos, sedebe aprovechar esta fortaleza para estabilizar unadisciplina que resulta siendo más compleja en muchasocasiones que el mismo desarrollo.

Por otro lado el mantenimiento introduce dostramos de complejidad, la complejidad ocasionada porel mejoramiento que el software sufre, y la estabilizaciónproducto de los posibles cambios que se den con elmejoramiento. Al software le es inherente elmejoramiento continuo, característica que es propuestaen varios modelos de proceso, incluso es la principalcaracterística de propuestas como la de CMMI. Elmejorar el software es equivalente al mejoramientoprogresivo de los modelo propios del software seanestos de análisis, diseño o implementación. Lasdimensiones del mantenimiento deben verse demanera más amplia a lo que clásicamente se trata, ydebe ayudar al perfeccionamiento y la fiabilidad mismade ese perfeccionamiento.

3.4 Corroboración

La corroboración, es la propiedad asociada a lacapacidad de aprobación de los diferentes modelos

Un modelo de análisis arroja errores de análisis,un modelo de diseño y arquitectura arroja errorespropios del diseño y arquitectura, estos errores no seperciben hasta que se plantea el modelo deimplementación que es sobre el que concretamentese puede probar. El efecto colateral que produce lacorroboración es la fuerte necesidad de aprobar cadauno de los artefactos del desarrollo. Comoevidentemente esta tarea no es tan común en modelosde análisis y diseño, parece extraña incluso imposible.Pero gran parte del esfuerzo podría centrase en logaratener lenguajes para cada uno de esto modelos,remplazando las técnicas que son poco formales. Loslenguajes son mas predecibles y parametrizados, porsu puesto no es tarea fácil, pero indudablemente esuna necesidad. Incluso el que se desarrollen lenguajespara otros modelos diferentes a los deimplementación, posibilitaría abordar el problema detrazabilidad y alejarnos más de los detalles engorrososde los lenguajes de programación. Un modelo decorroboración puede verse como en la Fig. 5.

En el modelo de corroboración se identifican dosentradas por un lado el conocimiento y por otrolado las actividades de proceso: ingeniería derequerimientos, diseño de software, construcción desoftware, pruebas de software y mantenimiento desoftware. El procesamiento de estas entradas en unamaquina de falseabilidad, arroja una salida estimadacomo el conocimiento validado. La primera entradareferida al conocimiento se constituye como elconjunto de técnicas, métodos y prácticas necesariaspara la corroboración, por otro lado cada una de lasactividades de proceso produce artefactos, los que asu vez deben ser seguibles a través de modelos yojala lenguajes propios. La combinación delconocimiento necesario pera la actividades de procesosentran en una maquina de falseación, cuyo objetivofundamental es poner a prueba las hipótesis que seformulen de la entradas, tratando de demostrar queno es correcta, después del procesos de falseación seproduce una clase de conocimiento que se consideravalidado, ya sea que en este sea pudo falsear o acertar.La misma prueba puede ser falseada, sentido en elcual la corroboración puede ser considerada inclusocomo una metaprueba.

3.5 Rastreabilidad

La rastreabilidad es otra propiedad que se debeconseguir en un software, esta podría confundirsecon la trazabilidad pero al igual de la corroboración yprueba, la rastreabilidad y trazabilidad tienen unacorrespondencia similar. La rastreabilidad involucraun camino doble de construcción y de construcciónde un concepto. Mientras en la construcción de unconcepto se involucran un conocimiento ordenado ydisciplinado ascendente, en la deconstrucción seinvolucra una revisión del conocimiento con la

Figura 5. Modelo de Corroboración.Fuente: Los autores.

Figura 6. Rastreabilidad.Fuente: Los autores.

del proceso de desarrollo. Lacorroboración es un conceptoampliado de prueba, necesarioprecisamente para obtenerconfianza en los modelos quese realizan a lo largo del procesode desarrollo. Gran parte de laproblemática ocasionada por lapoca fiabilidad de unaimplementación es producidapor la sobrecarga que tiene elmodelo de implementación“código en un lenguaje deprogramación”, esta carga es lacarga de defectos altamenteprobables de los modelosanteriores a la implementacióny que no so corregidos almomento de implementar.

Page 38: Revista Ingenieria Vo.14 No.1

Ingeniería37Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

37

37

posibilidad de seguir ese conocimiento de manerano solo sencilla sino constructiva de nuevoconocimiento (ver Fig. 6).

Los procesos de la rastreabilidad, construcción ydeconstrucción permiten la elaboración deconocimiento en ambas direcciones, ya sea de la idahacia el producto o tomando el mismo productohasta reconstruir la idea que lo origino. En estos doscaminos es posible no solo hacer seguimiento sinoconstrucción de conocimiento. La rastreabilidadpermite fortalecer disciplinas como la ingenieríainversa. El proceso de rastreabilidad visto desde otraperspectiva facilita la sinergia de las actividades deproceso las cuales no necesariamente deben serlineales. Similarmente a seguir migas de pan, paraadentrarse al bosque y poder salir sin perderse “Hansely Gretel” la rastreabilidad permite sumergirse en eldesarrollo construyendo conocimiento y regresardeconstruyendo, con la ganancia adicional deevolucionar en la concepción del producto.

CONCLUSIONES

La ingeniería de software como área disciplinar,

aún tiene muchos vacíos en el cual se pueden hacer

importantes aportaciones, evidencia de esos vacíos,

es la estadística poco disminuida de fracasos que aún

se tiene.

Los problemas en ingeniería de software están

estrechamente asociados a la falta de un cuerpo de

conocimiento más amplio. Es optimista creer que

tan solo con el uso de los procesos se puedan obtener

productos de calidad, es necesario además constituir

un conjunto de principios que formalicen el

desarrollo mismo y deje de ser una disciplina que

descargue gran parte de la responsabilidad en las

técnicas y habilidades personales.

Los principios aquí expuestos quieren poner de

manifiesto la necesidad de utilizar un formalismo que

aborde la problemática de manera no solo estandarizada

sino y aun mas importante de manera objetiva.

En la contrastación de la ingeniería de software

con otras disciplinas, si bien es cierto se tienen grandes

similitudes en la mayoría de los caso estas son

aparentes, y mas bien se reclama un cuerpo de

conocimiento propio dotado de principios leyes y

axiomas propios de esta área que es mas de corte

artificial que de corte natural.

REFERENCIAS BIBLIOGRÁFICAS[1] Beedle Mike, Devos Martine, Sharon Yonat, Schwaber Ken and

Sutherland Jeff. “SCRUM: A pattern language forhyperproductive software development”. En N. Harrison, B. 2.Foote, and H. Rohnert, eds., Pattern Languages of ProgramDesign, vol. 4, pp. 637-651. Reading, Addison-Wesley. 1998.

[2] Beck Kent. Extreme Programming Explained: Embrace Change.Reading, Addison Wesley. 1999.

[3] Cockburn Alistair. “Crystal Clear. A human-poweredmethodology for small teams, including The Seven Properties ofEffective Software Projects”. Borrador. Humans and Technology,versión del 27 de febrero 2002.

[4] Gutiérrez Pulido Humberto y De la Vara Salazar Román. “Análisisy Diseño de Experimentos”. Quinta edición. Ed. Mc Graw Hill. 2008.

[5] Gamma Erich, Helm Richard, Jonson Raplh and Vlissides Jhon.“Design Patterns, Elements of reusable object-oriented software”.Ed. Addsion Wesley. 1995.

[6] Gilb Kai. Evolutionary Project Management & ProductDevelopment (or The Whirlwind Manuscript), http://www.gilb.com/Download/EvoProjectMan.pdf. 2003.

[7] Highsmith Jim. Adaptive software development: A collaborativeapproach to managing complex systems. Nueva York, DorsetHouse. 2000.

[8] Jacobson Ivar, Booch Grady and Rumbaugh James. “The UnifiedModeling Language Referente Manual” Second edition. EdAddison Wesley. 2005.

[9] Kleppe Anneke, Warmer Jos and Basts Wim. “MDA Explained,The Model Driven Architecture: Practice and Promise”. Ed.Pearson Education. 2003.

[10] Kuhn Thomas S., “La Estructura de las revoluciones cientificas”.Trad, Ed.Fondo de Cultura Econocmica. 2006.

[11] Patton Ron. “Software Testing”. Ed. Sams. 2006.

[12] Popper Kart R.. “Realismo y el objetivo de la ciencia”, Segundaedición. Ed. Tecnos, S.A, 1998.

[13] Pressman Roger. “Ingeniería del Software”, Sexta edición. Ed.Mc Graw Hill. 2005.

[14] Shaw Mary and Garlan David. “Software Architecture, Perspectiveson an Emerging Discipline”. Ed. Prentice-Hall. 1996.

Sandro Javier Bolaños CastroDEA en el Doctorado en Ingeniería Informática de la Universidad Pontifica deSalamanca, campus de Madrid. Magíster en Teleinformática de la UniversidadDistrital Francisco José de Caldas. Ingeniero de Sistemas de la UniversidadDistrital Francisco José de Caldas. Actualmente es profesor asociado en laUniversidad Distrital, en la Maestría en Ciencias de la Información y las Comu-nicaciones, en la Especialización en Ingeniería de software y en el ProgramaCurricular de Ingeniería de Sistemas. Área de Ingeniería de Software. Perteneceal grupo de investigación en comunicaciones, informática y gestión del conoci-miento - GICOGE. [email protected]

Víctor Hugo Medina GarcíaPhD. Ingeniería Informática de la Universidad Pontifica de Salamanca campusde Madrid. Magíster en Informática de la Universidad Politécnica de Madrid.Especialista en Marketing de la Universidad del Rosario. Ingeniero de Sistemasde la Universidad Distrital Francisco José de Caldas. Actualmente es profesortitular en la Universidad Distrital, en la Maestría en Ciencias de la Informacióny las Comunicaciones y el Programa Curricular de Ingeniería de Sistemas, en elárea de Ingeniería de Software y Gestión del Conocimiento. Es investigador delgrupo GICOGE. Profesor asociado de la Universidad Pontifica de Salamanca yprofesor invitado en la Universidad de Oviedo. [email protected]

Luis Joyanes AguilarDoctor en Informática de la Universidad de Oviedo. Doctor en Ciencias Políticasy Sociología de la Universidad Pontifica de Salamanca campus de Madrid.Licenciado en Ciencias Físicas de la Universidad Complutense de Madrid. Li-cenciado en Enseñanza Superior Militar de la Academia Militar de Zaragoza.Profesor Titular Agregado de Cátedra de Lenguajes y Sistemas Informáticos dela Facultad de Informática de la Universidad Pontificia de Salamanca. Se des-empeñó como Decano de la Facultad de Informática, Director de Doctorado,Director de Masters y Director del Dpto de Lenguajes, Sistemas Informáticos eIngeniería de Software, en la Universidad Pontifica de Salamanca campus deMadrid. Autor de mas de 40 libros de Informática y numerosos artículos en revis-tas y congresos internacionales.

Page 39: Revista Ingenieria Vo.14 No.1

Ingeniería38 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

38

38

1 Co-Director e Investigador

del Grupo de Investigación

Simulación y Sistemas Ex-pertos.

2 Investigadora auxiliar del

grupo SES.

3 Investigador auxiliar del

grupo SES.

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Germán A. MéndezGiraldo1

Patricia Parra2

José Hurtado Portela3

Simulador para el ControlFinanciero de las Pymes

ResumenEn el año 2004 se concluyó la investigación acerca

del Diseño de un prototipo de Diagnóstico para lasPymes, de ahí en adelante se continuo el trabajo paraseguir brindando oportunidades de mejora a estetipo de industria. El presente artículo muestra unresultado derivado de este trabajo y que sefundamentada en la metodología desarrollada alinterior del grupo de investigación SES. Para ello seelaboró un modelo mental que dio lugar a un modelode simulación con el que se permite identificartendencias al interior del sistema, lo que hace posiblerealizar proyecciones del sistema financiero de la PyMe.

Entre las principales variables de influencia seencuentran la liquidez, el capital de trabajo, lasinversiones (tangibles e intangibles), la gestión ycontrol de presupuestos, la rentabilidad y elfinanciamiento (interno o externo). Así mismo, seplanteó un modelo de simulación continua parareflejar las políticas que definen las decisiones alinterior del área, el perfil del empresario y otrasvariables y parámetros fundamentales en el análisisde la gestión financiera.

Se concluyó después de realizar los diferentesescenarios de simulación que los principalesproblemas financieros de las PyMes no solo estánrelacionados con el crédito externo, comotradicionalmente se cree, también tiene una fuerteinfluencia la estructura interna y la cultura empresarial,pues las decisiones se toman de acuerdo a la visióndel empresario y pocos tienen la conciencia de invertiren el mejoramiento de la empresa.

Palabras clave: Simulador, Control financiero, PyMes.

Financial control Simulator for PyMes

AbstractIn year 2004 was finished the investigation about

Prototype Design of Diagnosis for the SMEs, afterthat, the work was continuing in order to developnew opportunities to be better at these industries.The present article shows a result derived from thiswork and that based on the methodology developedby the group of investigation SES. For it a mentalmodel was elaborated that gave rise to a simulationmodel with which it is allowed to identify tendenciesto the interior of the system, which does possible torealise projections of the financial system for SMEs.

Between the main variables of influence they are theliquidity, the work capital, the investments (tangibleand intangible), the management and control ofbudgets, the yield and the financing (internal orexternal). Also, It considers a model of continuoussimulation to reflect the policies that define thedecisions to the interior of the area, the fundamentalprofile of the maanger and other variables andparameters in the analysis of the financialmanagement. One concluded after realising thedifferent scenarios from simulation that the mainfinancial problems of the SMEs not only are relatedto the external credit, as traditionally it is created, alsohas a strong influence the internal structure and theenterprise culture, because the decisions are takenaccording to the vision of the industralist and fewhave brings back to consciousness to invest in theimprovement of the company.

Key words: Simulator, Financial control, SMEs.

1. IntroducciónDe acuerdo con el estudio “Gestión de la mediana

y pequeña empresa en los países miembros del grupoandino” realizado por la Universidad EAFIT, en elaño 1991 las pequeñas y medianas industrias enColombia representaban aproximadamente el 79.4%del total de empresas lo que significa que en el paísexisten mas de 5000 industrias catalogadas comoPyMes. [1]. Se consideran PyMes Colombianas aaquellas empresas con un número de empleados entre11 y 200 y valor de activos entre 500 y 15000 Salariosmínimos Mensuales Vigentes [2].

Estas empresas se caracterizan por ser las de mayorparticipación en la economía y juegan un papelimportante dentro de la generación de empleo. Dehecho, según un estudio realizado por la Caja Socialy basado en cifras del DANE, las PyMes generanmás del 40% de la producción total de bienes yservicios y ocupan el 25% de los puestos de trabajootorgados por las empresas privadas [3]. Lo anteriorpermite concluir que el conjunto de pequeñas ymedianas empresas colombianas representan unpapel fundamental dentro de la economía nacionaly por lo tanto su fortalecimiento es clave para eldesarrollo del país.

Con la globalización y la apertura de los mercadosse ha demostrado que gracias a sus características, las

Page 40: Revista Ingenieria Vo.14 No.1

Ingeniería39Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

39

39

pequeñas y medianas empresas están llamadas arepresentar un papel fundamental en la nuevaeconomía dada la flexibilidad que las caracteriza y lespermite adaptarse a los cambios del entorno [4].

Sin embargo, dentro de un marco proteccionistacomo el que primaba en las economías de la regiónantes de los años 90, la innovación y modernizacióndel aparato productivo era prácticamente nula y porlo tanto la competitividad era baja con relación a laindustria internacional [5]. Según un documentopublicado por ALADI, las pequeñas y medianasempresas enfrentan una fuerte problemáticarelacionada con sus deficientes condiciones deproducción y la baja calificación de su mano de obra[6].

Bajo estas circunstancias se hace urgente destinarmayores esfuerzos hacia este sector con el fin de crearestructuras sólidas de producción. Dado que laempresa pequeña y mediana enfrenta dificultades enel acceso al mercado financiero, los esfuerzos debenacompañarse de recursos suficientes y sobretodo deguías que permitan concentrar mayor atención en lasáreas problema de la organización.

Sin embargo, si las empresas pequeñas y medianasno cuentan con oportunidades de crédito que lespermitan obtener los recursos necesarios para sufinanciamiento y crecimiento será muy difícil impulsarsu fortalecimiento. La queja que las PyMes no tienenacceso al crédito que necesitan, es recurrente y parecierano tener solución en el esquema tradicional definanciamiento bancario [7].

Esta problemática es recurrente en la PyMeIndustrial ya que su financiamiento siempre ha estadoacompañado de evaluaciones parciales que no reflejana la empresa como un sistema. De acuerdo con LysetteHenríquez Amestoy, para que las PyMes sean máscompetitivas y se encuentren mejor integradas a suentorno económico es necesario mejorar su acceso alfinanciamiento por medio de políticasgubernamentales [8].

Bajo esta óptica y teniendo en cuenta la necesidad defomentar el crecimiento y estructuración de lasPequeñas y medianas industrias se busca proponer unsimulador que facilite el control financiero que permitamedir a las empresas desde un punto de vista masobjetivo e integral y a la vez identifique los puntoscríticos de la estructura económica de la empresa.

Teniendo en cuenta que una empresa funciona deacuerdo a la dinámica existente entre sus distintasáreas funcionales, un simulador debe incluir el análisisde cada una de éstas. En este trabajo se diseñará unprototipo basado en un enfoque sistémico con el finde diagnosticar el desempeño del área financiera delas pequeñas y medianas empresas. Dicho prototipo

no sólo busca identificar el riesgo crediticio que puedarepresentar la empresa para las entidades financieras,si no que también esta orientado a facilitar su dirección,encontrar sus debilidades y brindar alternativas desolución a los problemas enfrentados en el área.

2. MARCO TEÓRICOEn el contexto de las empresas y en particular de las

PyMes es necesario conocer las implicaciones de ciertasactuaciones y decisiones gerenciales, respuestas que sólose tendrían anticipadamente, es decir, antes que enrealidad sucedan gracias a los modelos de simulación,estas respuestas ante los efectos de la liquidez, elcontrol presupuestario, producción financiera, controly programación de la producción y otras más.

2.1 La Gestión Financiera en la PyMe

Dentro de la estructura de una empresa la gestiónfinanciera administra los flujos económicos quepermiten la operación de todas las áreas y elfuncionamiento y realización de los proyectosemprendidos por la dirección.

Según Horacio Irigoyen y Francisco Puebla, el eternoproblema de las finanzas es hacer frente, con recursoslimitados a necesidades ilimitadas, concepto aún másevidente en la administración financiera de PyMes [9].

La estructura del área de finanzas varía de empresaa empresa, sin embargo, hay lineamientos clásicosque determinan su funcionamiento. De acuerdo conJoaquín Rodríguez Valencia, la estructura general delárea financiera en una empresa incluye por lo menoslos siguientes aspectos:

• Obtención del financiamiento: El área financieraes responsable de adquirir recursos económicospor financiamiento externo e interno.

• Planeación y Presupuestos: la gestión de finan-zas incluye la formulación de programas y planesque destinan recursos a todas las áreas de la em-presa en pro de objetivos establecidos por la di-rección.

• Contabilidad y costos: Dentro del área financierase contempla el establecimiento de los costos ygastos ocasionados al producir y administrar laorganización. Para ello es esencial contar con unsistema contable estructurado que permitan for-mular la información financiera.

• Crédito: Los responsables del área financiera in-cluyen dentro su gestión la elaboración y segui-miento de políticas de crédito a clientes de acuer-do a las necesidades y condiciones particulares dela empresa.

• Cobranzas: Recuperación y control de cuentas porcobrar

Con laglobalización dela economía seha demostradoque las PYMeestán llamadasa representarun papelfundamental enla nuevaeconomía dadala flexibilidadque lascaracteriza.

Page 41: Revista Ingenieria Vo.14 No.1

Ingeniería40 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

40

40

• Control del efectivo: Manejo adecuado del efecti-vo, control de pagos y recepción de cobros.

• Administración del Capital de Trabajo: Distribu-ción de recursos para garantizar la operación de laempresa.

La gestión financiera debe garantizar los recursospara la nómina de la organización, las materias primasdel proceso productivo, los gastos y costos asociadosa la actividad y el funcionamiento de todas las áreasde la empresa [10].

Dentro de los objetivos de la gestión financiera sepuede decir que una empresa es un conjunto deproyectos de inversión y financiación ya que estecircuito financiero rige su funcionamiento. Así, entrelos objetivos de la gestión financiera se encuentra laconsecución y disponibilidad del dinero, laadministración de los recursos existentes con elmáximo de eficiencia y productividad para crear valory el logro de rendimientos esperados sobre lasinversiones. En resumen, la liquidez y la rentabilidadson objetivos clásicos en la gestión financiera [11].

La orientación dada a la administración financierade una PyMe influye considera-blemente sobre sufuncionamiento y los objetivos de ésta administraciónson claves para la organización. Dichos objetivosgeneran las estrategias y planes de acción que rigen elflujo de efectivo y permiten alcanzar los objetivos, tantodel área financiera como de toda la empresa.

Las estrategias son la base del plan financiero endonde se analizan los recursos disponibles y suutilización en un periodo de tiempo determinado.Prácticamente, el plan financiero es la traduccióncuantitativa de las estrategias, expresadas en términoscualitativos [11] [12].

Analizando el mundo de la Pequeña y Medianaempresa colombiana, se encuentra que el principalobjetivo financiero es maximizar las utilidadesdesligándolo de la calidad en la gestión. Estoevidencia la visión a corto plazo de los empresariosya que en muchos casos se persigue la rentabilidadsin enfocarse en el buen funcionamiento de laorganización, situación que a largo plazo causaperjuicios que repercuten en toda la empresa [1].

Para que la planeación financiera responda a lasnecesidades del negocio es indispensable que lainformación sobre la que se realiza sea precisasignificativa y oportuna [13].

Un sistema de información inadecuado es uno defactores principales de los fracasos de los pequeñosnegocios ya que sin un sistema de datos robusto secomenten errores en la administración del capital.Igualmente, la información financiera permitedeterminar si se están produciendo utilidades

convenientes en relación con los activos y el capitalinvertido [14].

Muchos empresarios de empresas pequeñas ymedianas consideran una perdida de tiempo elproceso de registro de información financiera. Sinembargo, la información financiera ordenada,procesada por medio de un sistema contableestructurado permite conocer la situación patrimonialde la empresa, analizar las disminuciones y aumentosen el patrimonio y la evolución de la empresa, puntosclave para la toma de decisiones [15].

La información base del proceso de planeaciónproviene del sistema contable y de costos establecidosen la empresa, los pronósticos de ventas proyectadospara periodos posteriores y la retroalimentación deperiodos anteriores.

2.2 Simulación Dinámica

La simulación hoy en día es una de las técnicaspreferida en los procesos de toma de decisión,probablemente en sus orígenes fue considerada comoun método de aproximación matemática paraproblemas en donde la optimización clásica erainconveniente por su implementación o por sumismo alcance.

La Dinámica de Sistemas es una técnica desarrolladapor el Profesor Jay Forrrester del MIT (EE.UU), parael estudio y análisis de sistemas complejos comocorporaciones (empresas de diverso giro o tamaño)o sistemas sociales (ciudades, regiones, países, elmundo) que surgió de la búsqueda de una mejorcomprensión de la administración [16].

La dinámica de sistemas combina la teoría, losmétodos y la filosofía para analizar el comportamientode los sistemas y su cambio a través del tiempo. Esteconocimiento puede luego ser expresado en un modelode simulación por computadora y ser usado paracomprender la forma cómo funciona dicha estructuray diagnosticar las causas de los problemas, diseñandodiversos cursos de acción para mejorar la situacióninicial encontrada [17].

Es uno de los desarrollos dentro de lo que seconoce como el Pensamiento de Sistemas ó laSistémica y es útil para el estudio, comprensión ybúsqueda de propuestas a diversos y complejosproblemas. El pensamiento sistémico permitecomprender integralmente la estructura de losprocesos existentes en las organizaciones y susinterrelaciones.

De acuerdo con Jay Forrester, la mayoría de losproblemas se originan por causas internas aunquegeneralmente se culpe a causas externas. Igualmente,las acciones que se emprenden para solucionar

Lasestrategiasson la base

del planfinanciero en

donde seanalizan los

recursosdisponibles ysu utilizaciónen un periodo

de tiempodeterminado.

Page 42: Revista Ingenieria Vo.14 No.1

Ingeniería41Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

41

41

problemas pueden ser la causa del mismo. Por otraparte, la propia naturaleza de la estructura dinámicarealimentada de un sistema tiende a conducir aacciones que son ineficaces o contraproducentes.

Una política es una regla que determina la toma dedecisiones. La dinámica de sistemas es muy útil a lahora de entender como las políticas afectan alcomportamiento de un sistema. El énfasis se deberíaponer en el diseño de políticas capaces de producirsistemas con un comportamiento más favorable. Elmodelo de simulación asociado a un sistemamostrará la corriente de decisiones controladas porlas políticas incorporadas. Si el comportamiento esindeseable se busca un mejor conjunto de políticasque produzca mejores resultados.

La dinámica de sistemas ha demostrado que existela manera de combinar conjuntamente la informaciónnumérica y la descriptiva en modelos que permiten lasimulación de sistemas complejos. Igualmente, noesta restringida a sistemas lineales y puede hacer usode las características no lineales de los sistemas, a lavez que permite determinar el comportamiento delos sistemas no lineales complejos.

La estructura realimentada se puede definir, comoaquellos procesos circulares en que las decisionesconllevan cambios que influyen en decisionesulteriores. Todas las acciones tienen lugar dentro detales estructuras circulares [16].

3. DISEÑO Y DESARROLLO DELMODELO DE SIMULADOR DE CON-TROL FINANCIERO

3.1. Metodología Utilizada

Los principales pasos que se siguieron para eldesarrollo del modelo fueron:

• Recopilación bibliográfica: Se basó en textos, ar-tículos, documentos gubernamentales y legalesprovenientes de autores calificados que se refie-ren al entorno de la PyMe, su problemática y si-tuación actual. Así mismo, se profundizó en elcampo de la dinámica de sistemas y teoría finan-ciera para garantizar la validez de la informaciónque sustenta el desarrollo del simulador.

• Matriz de Expertos: Dado que la investigación sebasa en conocimiento de los expertos, se elaboróuna matriz que permite apreciar los autores quese refieren a las causas identificadas dentro de laproblemática financiera de las empresas peque-ñas y medianas. Las causas se seleccionan de acuer-do a la relevancia dada por los expertos. Éstamatriz presenta todas las causas asociadas a losexpertos que las consideran. Esta matriz se deta-

lla en la obra de G. Méndez y L. Alvarez [18].

• Diagrama Causa-Efecto: A partir de la informa-ción bibliográfica se identificaron las causas aso-ciadas a las problemática financiera de las PyMes.Se elaboro un diagrama causa efecto en el que sepueden apreciar las principales relaciones causalesal interior del área financiera de la PyMe. Estediagrama permite organizar y representar las di-ferentes teorías propuestas sobre las causas deun problema.

• Modelos causales: A partir del estudio de las rela-ciones causales presentes en el área financiera de laPyMe se elaboró un modelo causal que refleja elcomportamiento del sistema y la interrelaciónentre las variables que lo componen. Estosdiagramas hacen posible identificar las causas delos efectos. Ya que una empresa es un sistemadinámico es posible visualizarla como tal utili-zando ésta herramienta.

• Modelo de Simulación en IThink: A partir delmodelo causal se elaboró un modelo de simula-ción en el software IThink. Este modelo refleja elcomportamiento de las diferentes variables queintervienen en la gestión financiera de la empresay permite identificar los efectos de las variacionessobre el sistema.

3.2. Modelo Verbal y Causal

Toda empresa necesita captar recursos externos pormedio del financiamiento para asegurar su actividadproductiva. Uno de los factores que afecta suconsecución es la tasa de interés. Así, entre más altasea la tasa de interés más costoso será elfinanciamiento. Por ello se plantea una relación inversaentre la tasa de interés y el financiamiento representadapor el signo (-), ver figura 1.

El modelo desimulaciónasociado a unsistemamostrará lacorriente dedecisionescontroladaspor laspolíticasincorporadas.

Figura 1. Modelo Causal Área de de Liquidez

El financiamiento contribuye a alcanzar niveles deliquidez necesarios para el funcionamiento de laempresa por lo que entre mayores sean las fuentes definanciamiento mayor es la liquidez de laorganización. Así mismo, la liquidez influyedirectamente sobre el capital de trabajo ya que para

Page 43: Revista Ingenieria Vo.14 No.1

Ingeniería42 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

42

42

Figura 2. Modelo Causal Área de Rentabilidad

garantizar el funcionamiento de todas las áreas de laempresa es necesario contar con dinero efectivo en elinstante en que éste se requiera. La liquidez favorecela realización de inversiones como compras o mejorasen los activos fijos o proyectos especiales que permitanla expansión de la PyMe. Una empresa que mantengaelevados niveles de endeudamiento incurrirá endificultades de financiamiento porque las institucionesson reacias a prestar dinero a organizaciones conelevados niveles de deuda. Cuando la empresa tieneniveles adecuados de liquidez aumentará su capacidadde pago, disminuyendo sus niveles deendeudamiento. El nivel de financiamiento externoestá condicionado a las garantías de respaldo que estáen capacidad de ofrecer la organización, estas garantíasse definen a partir del nivel de activos fijos y de liquidezde la empresa.

Por otra parte, entre mejor sea la política de laempresa para asignar créditos menor será el riesgo deque las deudas no sean recuperadas. La rotación decartera también se ve afectada por la gestión deldepartamento de cobranzas que debe garantizar larecuperación de los créditos e influye directamentesobre la liquidez pues la empresa cuenta con estedinero para financiar su operación. La liquideztambién se ve afectada por la rotación de inventariosya que este es el activo corriente menos líquido y suacumulación representa una disminución en lacapacidad de generar efectivo para desarrollar lasactividades de la empresa. Esta variable depende delcomportamiento del mercado y de la gestión deproducción.

La rentabilidad se ve afectada por el precio y el nivelde ventas. De igual forma, la rentabilidad estádeterminada por la rotación de cartera pues de nadasirve vender si no se puede cobrar; por los costos ygastos asociados a la actividad, y por loscorrespondientes al pago de intereses. Por otra parte,los niveles de impuestos a que están sujetas lasactividades de la organización disminuyen larentabilidad de la misma, siendo éstos determinadosde acuerdo a los niveles de ingreso. Si la rentabilidades alta se beneficia la liquidez de la empresa, así que seestablece una relación directa entre estas variables.

El conocimiento de los costos y la correctaproyección de ingresos (pronósticos de ventas) sonfundamentales para garantizar que el sistema deinformación financiera sea confiable y arrojeinformación verídica. Igualmente, el conocimientode la rentabilidad influye en la validez del sistema deinformación financiera que alimentará la gestión ycontrol de los presupuestos. Si los presupuestos estánbien elaborados y su información es confiable laempresa contará con los niveles de liquidezrequeridos. Ver figura 2.

Finalmente, el financiamiento de las actividades dela empresa incluye el financiamiento interno (aportesde capital de los socios) y la reinversión de utilidades;la cantidad de dinero que no se reinvierte esnormalmente destinada a la repartición dedividendos, de acuerdo a la política establecida. Losexcesos de liquidez pueden representar saldos ociosospara la compañía por lo que en muchos casos se optapor la realización de inversiones temporales. Estasdecisiones dependen del perfil de empresario, quiendetermina el direccionamiento de la organización. Asímismo, ésta variable determina la asignación derecursos disponibles para la realización de proyectosespeciales al interior de cada área funcional.

3.3. Modelo de simulación

El modelo de simulación propuesto refleja elcomportamiento del área financiera de una PyMe apartir del modelo causal determinado. Permite apreciarcomo la empresa destina recursos financieros a losdiferentes usos posibles y visualizar las fuentes dedinero. El modelo es dinámico, así que es posibleapreciar el estado de ellas variables a través del tiempoy evidenciar las causas de los resultados obtenidos.

Las variables que usa el modelo se distinguen lasde nivel, las de tasas y las auxiliares en las que sedistinguen los parámetros del modelo, a fin de ilustrarel modelo en la tabla 1 se definen las variables denivel y en la tabla 2, las de tasa.

Una empresaque mantenga

elevadosniveles de

endeudamientoincurrirá en

dificultades definanciamiento

porque lasinstituciones

son reacias aprestar

dinero aorganizaciones

con elevadosniveles de

deuda.

Figura 3. Gráfico de Modelo de Simulación(Afectación de Efectivo)

Como ya se mencionó, para el desarrollo delmodelo simulador se utilizó el software diagramáticoITHINK. Ver Figura 3, en el se puede distinguircomo el modelo está dividido en sectores

Page 44: Revista Ingenieria Vo.14 No.1

Ingeniería43Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

43

43

Los excesosde liquidezpuedenrepresentarsaldosociosos parala compañíapor lo que enmuchos casosse opta por larealización deinversionestemporales.

interconectados que representan las variablesprincipales estableciendo las relaciones al interior decada uno. Inicialmente, el conjunto de sectoresprincipales reflejan el ciclo de los negocios de laempresa y sus variables se miden en dinero. En lafigura 3, se denota una parte del modelo diagramáticoque afectan el nivel de efectivo.

El nivel de efectivo permite medir en cualquiermomento el dinero disponible, las variables queinfluyen sobre éste nivel se encuentran conectadasmostrando las entradas y salidas de dinero. Para ellose consideran los ingresos por ventas, las entradas decapital por medio de financiamiento o por ingresosdiferentes a la actividad de la empresa. También seevalúa la capacidad de la empresa para recuperar sucartera y se considera la salida de dinero para laoperación de todas las áreas funcionales (capital detrabajo), inversión en activos fijos, en proyectosespeciales e inversiones temporales. Los impuestos yla repartición de dividendos se incluyen también enel análisis.

Por otra parte, es posible medir características deadministración Financiera, como la gestión y controlde presupuestos a partir de la evaluación de lasvariables que influyen sobre ésta. Así mismo, evalúala gestión de cobranzas y la política de créditos,

Tabla II. Variables de Tasa

T Gestión de cobranzas TGESTCO

T Validez de información financiera TVALIDZ

T Gestión y control de presupuestos TGESCPR

T Política de créditos TPOLCRE

T $ Para inversiones en proyectos T$INVPR

T $ Para inversiones temporales con fin. Ext. T$INVTE

T Adición a activos TADIACT

T Administración TADMINI

T Cartera recuperada TCARTRE

T Compra de activos fijos con capital propio TCOMACP

T Compra de activos fijos con finan. Ext. TCOMAFE

T Corrección TCORREC

T Costos y gastos TCOSYGA

T Cuotas de amortización TCUOTAS

T Depreciación TDEPREC

T Descarga presupuestal TDESPRE

T Dinero medio ambiente TDINMEA

T Dinero para amortización TDINAMO

T Dinero para calidad TDINCAL

T Dinero para finanzas TDINFIN

T Dinero para investigación y desarrollo TDINI&D

T Dinero para mercados TDINMER

T Dinero para prevención TDINPRE

T Dinero para produccion TDINPRO

T Dinero para recursos humanos TDINRHU

T Dividendos TDIVIDE

T Financiación externa TFINEXT

T Financiación interna TFININT

T Fracción de cuentas por cobrar TFRCPCO

T Ingresos TINGRES

T Ingresos por especulación TINGESP

T Ingresos por periodo TINGPER

T Ingresos por ventas a crédito TINVEAC

T Ingresos por ventas de contado TINVECO

T Ingresos periódicos TINPERI

T Intereses por deuda TINTDEU

T Inversiones temporales con saldos TINVTSA

T Otros ingresos TOTROIN

T Pago de impuestos TPGIMPU

T Pago de deudas TPGDEUS

T Partida para funciones TPPFUNC

T Pago de deuda TPGDEUD

T Préstamo TPRESTA

T Préstamo con intereses TPRCONI

T Renovación de activos TRENOAC

T Requerimiento de capital TRECCAP

T Utilización de ahorro para imprevistos TUTIAHI

T Ventas a crédito por periodo TVENCRP

T Ventas a crédito de cada periodo TVENCPE

resultados que pueden explicar problemas en larotación de cartera. Estas variables se operanporcentualmente y su valor se determina a partir decalificaciones obtenidas a partir de la encuesta.

El modelo incluye un panel especial que permitevisualizar si existen problemas de liquidez y suinfluencia sobre el capital de trabajo y la inversión. Elmodelo tiene la capacidad de representar lascondiciones pasadas de la empresa mediante elingreso de información histórica que puede sermanipulada para visualizar diferentes escenarios ytendencias de comportamiento del sistema. Así esposible identificar los aspectos que afectan eldesempeño del área y plantear posibles soluciones alos problemas.

Algunas ecuaciones del Modelo de I Think sepresentan a continuación:

Tabla I. Variables de Nivel

TIPO VARIABLE NOMBRE

N Gestión y control de presupuestos NGCONPR

N Política de crédito NPOLCRE

N Validez de información financiera NVALIDZ

N Gestión de cobranzas NGESTCO

N $ Total administración N$ADMIN

N $ Total calidad N$CALID

N $ Total finanzas N$FINAN

N $ Total I&D N$IN&DE

N $ Total medio ambiente N$MEDAM

N $ Total mercados N$MERCA

N $ Total producción N$PRODU

N $ Total RRHH N$RRHHU

N Cartera recuperada NCARREC

N CC promedio NCCPROM

N Costo de ventas NCOSVEN

N Depreciación acumulada NDEPACU

N Deuda amortizada NDEUAMO

N Deuda total NDEUTOT

N Dinero para funcionamiento NDINFUN

N Dinero requerido total N$REQTO

N Efectivo NEFECTI

N Historial de pago de impuestos NHISIMP

N Historial de repartición de dividendos NHISDIV

N Histórico de pagos de deudas NHPADEU

N Ingresos por ventas NIGRDEU

N Inversiones temporales NINVTEM

N Inversión en activos fijos NINVACF

N Inversión en proyectos NINVPRO

N Nivel de cuentas por cobrar NCUENCO

N Nivel de endeudamiento NENDEUD

N Nivel de prevención NPREVEN

N Partida total para corrección NPARCOR

N Valor total de activos fijos NVALACF

N Ventas totales NVENTOT

N Ventas totales a crédito NVENTCR

Page 45: Revista Ingenieria Vo.14 No.1

Ingeniería44 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

44

44

Tabla III. Resultados del Caso de Validación No. 1.

Figura 4. Gráfico de Inversión

Figura 5. Gráfico de Amortización

El nivel de inversión temporal está representadopor la línea 1. Según su trayectoria se puede concluirque la entrada de dinero por financiación internainfluye sobre su valor. Esta empresa tieneprogramado realizar inversiones en proyectos de lasáreas funcionales en un periodo determinado,también se ha estipulado que será utilizado ciertoporcentaje de la financiación externa para este fin,por lo cual solo es posible realizar este tipo deinversión si no se ve afectada la consecución de dinero,como en este caso. No se programó la compra deactivos en el horizonte simulado.

La gráfica de amortización, ver figura 5, permiteobservar la influencia del financiamiento externosobre el nivel de efectivo. Por ello, las líneascorrespondientes a nivel de endeudamiento (línea 2)y efectivo (línea 1) conservan una tendencia similar.Sin embargo, dado que el plazo para el inicio delpago de las cuotas es muy corto, la empresa se veobligada a desembolsar cuotas desde el periodosiguiente a la consecución del crédito. En este caso laamortización está pactada a 48 meses, plazo que esmuy pequeño para el pago de una deudaconsiderablemente grande.

El modeloincluye un

panelespecial que

permitevisualizar si

existenproblemas deliquidez y su

influenciasobre el

capital detrabajo y lainversión.

Índice de endeudamiento

AINDEND = APASTOT/AACTTOT (1)

APASTOT = 25500000 (2)

Índice de rotación de cartera

NCARREC(t) = NCARREC(t - dt) + (TCARTRE) * dt (3)

TCARTRE = AHCARRE (4)

NCCPROM(t) = NCCPROM(t - dt) + (TFRCPCO) * dt (5)

TFRCPCO = (NCUENCO+TVENCRP-TCARTRE)/ANUMPER (6)

NCUENCO(t) = NCUENCO(t - dt) + (TVENCRP -TCARTRE) * dt (9) (7)

TVENCRP = AHVENCR (8)

NVENTCR(t) = NVENTCR(t - dt) + (TVENCPE) * dt (9)

4. VALIDACIÓN DEL MODELO

El Modelo de simulación permite apreciar gráficasque reflejan las relaciones entre variables y elcomportamiento del sistema. Las gráficas que semuestran a continuación permiten visualizar partede la dinámica generada por corridas de 12 periodos.En este caso se tomaron 12 periodos mensuales querepresentan el movimiento anual correspondiente alos ejercicios contables de nuestro país.

4.1. Caso de validación No. 1

El primer escenario simulado es para una empresaque enfrenta una paulatina disminución de liquidez,representada por la disminución de sus reservasiníciales, por su bajo ingreso operacional y bajarecuperación de cartera. En la gráfica de la figura 4 setienen las variables de inversiones temporales, enproyectos de áreas funcionales y en activos fijos, quese ven afectadas por entradas de dinero provenientede financiación. Ver tabla 3.

El Financiamiento es de dos tipos. El créditoexterno (línea 2) aparece en el momento en que losniveles de efectivo disminuyen considerablemente.El financia-miento interno proviene de aportesprogramados para un periodo en particular. En estecaso, el financiamiento interno no tiene el suficienteimpacto sobre el nivel de efectivo y lo único que lograes desacelerar su caída, ver figura 6.

Figura 6. Gráfico de Financiación

Los ingresos por ventas de contado (línea 1)influyen sobre el nivel de efectivo pero no en

Page 46: Revista Ingenieria Vo.14 No.1

Ingeniería45Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

45

45

magnitudes considerables para el sistema, ver figura7. Se observa que cuando los ingresos disminuyen,el efectivo también aunque deben observarse otrascausas de esta disminución. Puede suponerse que elritmo de pago de la deuda se interrumpe justo cuandoel dinero llega a un punto crítico, pero se recupera alaumentar el volumen de ingresos por ventas.

ingreso en magnitudes acordes a las necesidades decapital de la empresa.

4. CONCLUSIONES

De acuerdo con la información recopilada durantela investigación sobre diagnóstico de la PyMe,sumada al desarrollo del modelo de simulación queaquí se presenta, se considera como la PyMeindustrial colombiana enfrenta una complejaproblemática financiera debido a múltiples agentestanto al exterior como al interior de la organización.Siendo las causas internas las de mayor deficiencia.Si bien el mercado financiero restringe los créditos aéste tipo de empresas, es importante anotar quesus dificultades parten de los inadecuados esquemasde gestión, normalmente enmarcados dentro depolíticas tradicionales y poco eficientes, situaciónque se refleja en las falencias estratégicas paraadministrar los flujos económicos (Ausencia dePlanes y presupuestos entre otros).

El simulador financiero permite analizar lasincidencias de las principales variables financierasrepresentadas tanto en las variables de nivel como enlas de tasa ya mencionadas arriba, partiendo de éstasituación, se evidencia la pertinencia del simuladorencaminado a facilitar el direccionamiento de laorganización al evaluar las políticas propias de lagestión financiera.

Es importante resaltar la importancia del apoyo deentes externos para impulsar el desarrollo sosteniblede las PyMes. Uno de los factores que afecta elcrecimiento de la empresa es la percepción que tienenlas fuentes de financiamiento sobre su voluntad ycapacidad de pago. Aunque se han creado diversosmecanismos dirigidos al financiamiento de PyMes,pero se ha demostrado que son insuficientes dada lamagnitud de la problemática, por lo que esimportante sensibilizar a la sociedad en general acercade la importancia de su fortalecimiento.

Por otra parte, debe considerarse que lascondiciones del mercado han cambiadosustancialmente y por lo tanto la PyMe no debecompetir bajo los parámetros tradicionales. Elloimplica que no es posible aumentar los precios deventa en la misma proporción en la que aumentanlos costos debido a que los altos niveles decompetencia especializada no lo permiten. Por lotanto, el pequeño empresario debe hacer esfuerzospor controlar sus costos y gastos sin sacrificar la calidadde sus productos para sostener sus niveles derentabilidad.

Prueba de lo anterior se da frente al nivel de efectivoque se maneja en la empresa cambiando las políticas

Figura 7. Gráfico de Ingresos, Efectivo y Pago de Deuda

Tabla IV. Resultados del Caso de Validación No. 2.

4.2. Caso de validación No. 2

Como otro ejemplo, se realiza una corrida de 12periodos aumentando los valores de ingreso porventas de contado, para observar la reacción de lasdemás variables. El financiamiento se da en losmismos periodos que en el caso 1, pero el periodo deamortización y la fecha de inicio de pagos sonmayores. Ver tabla 4.

Los ingresos por ventas (línea 1) aumentan enrelación al caso 1, factor que junto con la ampliacióndel plazo para cancelar deudas contribuye disminuirel ritmo de pérdida de efectivo (línea 2). Además, eldinero para el funcionamiento de la empresa (línea 3)se estabiliza finalmente en el nivel presupuestado,permitiendo así el desarrollo del ciclo del negocio.En resumen, por medio de las gráficas es posiblevisualizar algunas relaciones entre variablesimportantes del sistema, demostrando por ejemplo,que el financiamiento juega un papel primordial en eldesarrollo del ciclo operativo. Las condiciones de ladeuda pueden afectar los niveles de efectivo,involucrando posteriormente las partidaspresupuestadas de dinero para la inversión y para elcapital de trabajo, a la vez que se dan espacios para eldesarrollo de la actividad productiva. Elmantenimiento de niveles de venta regulares juntocon una efectiva política de cobranzas asegura un

El pequeñoempresariodebe haceresfuerzos porcontrolar suscostos ygastos sinsacrificar lacalidad de susproductos parasostener susniveles derentabilidad.

Page 47: Revista Ingenieria Vo.14 No.1

Ingeniería46 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

46

46

[10] LLANO MONELOS, Pablo de y PIÑEROS, Carlos. Modelos degestión financiera. Mc Graw Hill. 2007. México. P. 56

[11] DIEZ DE CASTRO, Luis y LÓPEZ, Joaquín. Dirección Financiera.Planificación, Gestión y Control. España, 2001

[12] DUMRAUF, Guillermo L. Finanzas Corporativas. México.Alfaomega Grupo Editor. 2006. p. 163

[13] BREALEY, Richard. Principios de finanzas corporativas. Madrid.McGraw-Hill, 2003

[14] LONGENECKER, Justin y MOORE Carlos. “Administración depequeñas empresas, Un enfoque emprendedor” 11ª edición.International Thomson Editores. 2001. USA Cit. P. 483

[15] ENCICLOPEDIA PRÁCTICA DE LA PEQUEÑA Y MEDIANA EMPRE-SA. Op Cit. p 452

[16] FORRESTER, Jay. Diseñando el futuro. 15 de diciembre de 1998.Universidad de Sevilla. España.

[17] ARACIL Javier y GORDILLO Francisco, Dinámica de Sistemas;Editorial Alianza 1997.

[18] MENDEZ G. y ALVAREZ, L. Diseño de prototipo diagnóstico parala pequeña y mediana empresa, PYME. Enfoque mediante sis-temas dinámicos. Ed. Nomos. Bogotá 2005.

Germán Méndez Giraldo Ph.D.Es Ingeniero Industrial de la Universidad Distrital Francisco José deCaldas, de Bogotá, Colombia. Obtuvo su título de Maestría en 1998en la Universidad de Los Andes de Bogotá, Colombia. Obtuvo sudoctorado en 1999 en la Universidad Central de Las Villas, SantaClara, Cuba. Actualmente es el Co-director del grupo de investiga-ción Sistemas Expertos y Simulación SES, docente de la Maestría enIngeniería Industrial en la Universidad Distrital Francisco José deCaldas de Bogotá[email protected]

Patricia ParraEs Ingeniera Industrial de la Universidad Distrital Francisco José deCaldas, de Bogotá, Colombia. Su trabajo de grado lo realizado en elgrupo de Investigación [email protected]

José Hurtado PortelaEs Ingeniero Industrial de la Universidad Distrital Francisco José deCaldas, de Bogotá, Colombia. Su trabajo de grado lo realizado en elgrupo de Investigación [email protected]

de venta que se manejen. Contrario a lo que enapariencia se evidencia de la venta de contado comomecanismo para generar efectivo, resulta mejor laspolíticas de crédito que brinda la PyMe.

De igual manera, el simulador permite establecerlas conexiones del área Financiera con las otras áreasfuncionales de la PyMe, midiendo su influencia a lavez que analiza el comportamiento del sistema enfunción del tiempo para apreciarlo como un entedinámico y en continua transformación.

Finalmente, cabe anotar que la utilización deherramientas de diagnóstico diseñadas en el marcode la dinámica de sistemas es muy pertinente dadaslas actuales condiciones del entorno industrial, queexigen organizaciones más competitivas einteligentes.

5. REFERENCIAS BIBLIOGRAFÍA[1] EAFIT. Gestión de la mediana y pequeña empresa en los países

miembros del grupo andino. Colombia. 2000.

[2] REPUBLICA DE COLOMBIA, MINISTERIO DE DESARROLLO ECO-NÓMICO. Promoción del desarrollo de la micro, pequeña y me-diana empresa colombiana. Ley MiPyMe. 2000.

[3] VELEZ, Diego. Dinámica de la empresa familiar pyme: estudioexploratorio en Colombia. Bogotá, Fundes. 2008. pp. 20-30

[4] NIVIA, Leonardo. La pyme y sus aportes al desarrollo de Colom-bia: la historia de Acopi 1951-2006. Bogotá: Acopi; FundaciónKonrad Adenauer, 2006.

[5] VELEZ, Francisco Javier. Estudio sobre la informalidad y lasMIPYMES en Colombia: análisis y propuestas: informe final. ANDI;OIT. Bogotá. 2006.

[6] WENGEL, Jan Ter. Dinámica y productividad de la industria co-lombiana: empleo, exportaciones y la pequeña empresa. Bogo-tá: Pontificia Universidad Javeriana, 2006.

[7] CASTAÑEDA, Pablo, elarea.com. Artículo publicado el 13/2/2002

[8] HENRIQUEZ, Lysette. Programa de Naciones Unidas para elDesarrollo. Memorias de la conferencia “Financiamiento a laPyMe, Algunas reflexiones”. Semana de la PyMe. México, Sep-tiembre 2001.

[9] IRIGOYEN, Horacio y PUEBLA, Francisco. PyMes: Su Economía yOrganización. Argentina. Ediciones Macchi, 1997. p. 126

Page 48: Revista Ingenieria Vo.14 No.1

Ingeniería47Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

47

47

1 Profesor T.C. Facultad de

Ingeniería, Universidad

Distrital Francisco José de

Caldas. Director Grupo de

Investigación MMAI

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Jairo HumbertoTorres Acosta PhD. P.E.1

Resumen

La actividad de transferencia de la denominadacorriente física de unidades en una cadena demanufactura, requiere para su monitoreo y control

un robusto sistema de información. Este debeconstar de un subsistema de entrada, cuyoscomponentes son a su vez información de salida de

otros sistemas precedentes; un subsistemaoperacional, que permite determinar los diferentescomportamientos de interés entre los diferentes

procesos de la cadena de manufactura y unsubsistema de salida que permita con sus resultadosestablecer el monitoreo, control y trazabilidad.

Una cadena de manufactura por procesos, es unsistema complejo y el control de transferencia de sucorriente física de unidades, requiere un sistema de

información de alta complejidad. El desarrollo deeste artículo genera la estructura del sistema de

información operacional para el control de transferencia de

una cadena de manufactura por procesos.

Palabras clave: Transferencia de unidades, corrientefísica de unidades, sistema de información, operacional,

control de transferencia, manufactura por procesos.

Information Systems for the Transfer

of Control in a Chain of Manufacturing

Abstract

The activity of transference of the physical currentof units in a manufacture chain, it requires for its

monitoring and control a robust information system.This it must consist of an entrance subsystem, whosecomponents are information of exit of other

preceding systems; an operational subsystem, todetermine the different behaviors of interest betweenthe different processes of the manufacturing chain

and exit subsystem that it allows with its results ofestablishing the monitoring and control. A chain ofmanufacture by processes, it is a complex system and

the control of transference of its physical current ofunits and it requires an information system of highcomplexity. The development of this article generates

the structure of the operational information systemfor the control of transference of a chain ofmanufacture by processes.

Key words: Transfer of units, physical current ofunits, information system, operational informationsystem, transference control, manufactures by

processes.

1. INTRODUCCIÓN

La tarea de control en una cadena de manufactura,

es una actividad con un alto nivel de complejidad,razón por la cual la característica del sistema deinformación operacional requerido para este

propósito, debe poseer en su modelación yestructura todas las características que permitan quela información resultado sea confiable, pertinente y

oportuna, pues de otra forma el sistema quedaráfuera de control trayendo como efecto el colapsodel mismo, generando alto nivel de perdida por el

consecuente aumento de costos. Otro aspecto quese debe tener en cuenta en el sistema de informaciónoperacional, es la cantidad de variables de resultado

que se deben generar y que son las que finalmentepermiten desarrollar el control de transferencia deun proceso a otro de la cadena de manufactura. La

transferencia es una macro actividad de los procesosde manufactura, denominada igualmente corrientefísica de unidades [1] [2] y se registra en un sistema

de información que debe permitir establecer elcomportamiento estadístico que se presenta en lasdiferentes secciones o procesos de la cadena de

manufactura y la forma en que va fluyendo elproducto a través del sistema de transformación[3]. La corriente física de unidades, corresponde a

todos los productos del tipo i (i = 1,…, I ) quepueden ser fabricados por la cadena de manufactura.Los componentes de esta macro actividad son

transversales a todos los procesos que hacen partede la línea de manufactura y a todos los elementosdel costo [4].

La información estadística generada a través del

sistema de información operacional, permiteestablecer el control de cada proceso componente dela cadena en relación con [5] [6]:

• Unidades empezadas

• Unidades terminadas• Unidades rechazadas• Unidades aceptadas

• Unidades transferidas, etc.

Sistemas de Información parael Control de Transferencia enuna Cadena de Manufactura

Page 49: Revista Ingenieria Vo.14 No.1

Ingeniería48 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

48

48

2. Estructura del sistema

de información operacional

El sistema de información esta compuesto portres subsistemas a saber:

• Subsistema de entrada: Esta determinado por in-formación inicial e información de salida de otros

sistemas precedentes y permite contar con losinsumos requeridos para el proceso de transferen-cia y control que desarrolla el sistema de informa-

ción operacional propiamente dicho.

• Subsistema operacional: Permite con base en la

información de entrada y las heurísticas desarro-lladas, generar todos los cálculos para el control detransferencia.

• Subsistema de salida: Genera la información esta-dística que permite establecer el monitoreo, con-

trol y trazabilidad de la transferencia de unidades alo largo de la cadena de manufactura. En el gráfico

1 se puede apreciar su estructura.

salida del sistema de información sobre capaci-dad de manufactura.

4. SUBSISTEMA OPERACIONAL

El subsistema operacional, permite determinar losdiferentes comportamientos de interés para la

actividad de transferencia de unidades entre losdiferentes procesos de la cadena de manufactura. Estesubsistema de divide en dos componentes a saber:

unidades por distribuir, que corresponde al totalde unidades de producto tipo i en un proceso s (s =1,…, S), constituidas por los inventarios iniciales y

las recibidas de procesos precedentes; distribuciónde unidades, que con base en la información delcomponente anterior establece la cantidad terminada,

las unidades aceptadas y rechazadas, así como lastransferidas, retenidas y en proceso. Para una perfectacomprensión de los comportamientos, se explicará

en primer termino todo lo concerniente al proceso s

= 1 y posteriormente para los demás (s = 2,…, S).

4.1. Proceso s=1

El primer proceso de la cadena de manufactura esen el que se recepcionan las órdenes de producciónliberadas, razón por la cual tiene un comportamiento

diferente a los demás procesos de la cadena, en lo quehace referencia a los componentes definidos.

ˆ Unidades por distribuir: Este componente estadeterminado por la información correspondiente

a los siguientes ítems:

• Unidades ordenadas: QOi Cantidad de productos

tipo i que deben entregarse de acuerdo con la or-den u órdenes de producción cursadas.

• Inventario inicial de productos en proceso: Ioi1 Canti-

dad de productos tipo i que se tienen en el proce-

so. Puede ser constituido por productos total-mente terminados en la sección, los cuales fueronretenidos, y por productos tipo i que quedan en la

sección o proceso, pero que no han sido termina-dos íntegramente, por lo cual debe establecerse elporcentaje del nivel de avance de obra.

• Unidades empezadas: UEi1 Esta información se pre-

senta únicamente para el primer proceso y su com-portamiento se establece mediante la relación (1).

UEi1 = Q0

i1- Io

i1 (1)

• Unidades recibidas del proceso anterior: Esta informa-

ción se aplica a partir del segundo proceso.

• Total de unidades por distribuir: TUDi1 En el primer

proceso, el total corresponde a la suma de las uni-dades empezadas y el inventario inicial. La relación

que permite su cálculo es la (2).

TUDi1 = UE

i1+Io

i1 (2)

Figura 1. Estructura del sistemade información operacional

Información inicialHeurísticas

EstadísticasInformación de saida de

otros subsistemas

Cadena de manufactura

Subsistemade entrada

Subsistemaoperacional

Subsistemade salida

3. Subsistema de Entrada

El subsistema de entrada esta determinado porlos siguientes componentes:

• Unidades ordenadas: QOi Es la cantidad de produc-

tos que deben entregarse de acuerdo con la ordenu órdenes de producción cursadas.

• Inventario inicial de productos en proceso: Iois Cantidad

de productos que se tienen en el proceso. Puede

ser constituido por productos totalmente termi-nados en la sección que fueron retenidos y porproductos que quedan en la sección o proceso,

pero que no han sido terminados íntegramentepor lo cual debe establecerse el porcentaje del nivelde avance de obra.

• Entrada de materiales al proceso: Define el proceso osección s en el cual se incorpora el material tipo k a

la cadena de manufactura.

• Probabilidad de aceptación en el proceso: Se designacomo Pa y establece la probabilidad que los pro-ductos cumplan con la especificación cuando el

proceso esta funcionando en condiciones norma-les. Es el porcentaje de productos aceptados.

• Lotes de producción obtenidos con capacidad ampliada:

Esta información corresponde al subsistema de

Page 50: Revista Ingenieria Vo.14 No.1

Ingeniería49Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

49

49

� Distribución de unidades: Los ítems siguientes

determinan la estructura de la distribución de uni-dades en el primer proceso (proceso 1)

• Unidades terminadas: UTi1 Esta información se cal-

cula con base en los lotes realmente terminados en

correspondencia con los lotes de producción ob-tenidos con capacidad ampliada. La relación utili-zada es la (3):

UTi1= LTR

i1 × Q

i1* (3)

• Unidades rechazadas: URi1 Es la cantidad de pro-

ductos que no cumplen con la especificación y sucantidad corresponde al nivel porcentual de recha-zo que se presenta al final del período de acumula-

ción y monitoreo del costo, teniendo en cuentaque esta cantidad se distribuye proporcionalmen-te en los S procesos, tal como ya se había clarifica-

da. La relación es la que permite el cálculo es la (4).

URi1 = TUD

i1 × (PFR

i /S) (4)

• Unidades aceptadas: UAi1 Es el resultado de la dife-

rencia entre las unidades terminadas y las unida-des rechazadas en el proceso 1 de la cadena de

manufactura.UA

i1 = UT

i1+ UR

i1 (5)

• Unidades transferidas: UTFi1 En el proceso 1, las

unidades transferidas son equivalentes a las uni-dades recibidas en el proceso 2 y están en concor-

dancia con el comportamiento establecido con lacantidad de productos tipo i realmente procesa-dos en s = 2. Su calculo se establece mediante la

relación (6):UTF

i1 = URB

i2 (6)

• Unidades retenidas: URTi1 Son aquellas unidades

aceptadas, que por la capacidad disponible del si-guiente proceso no pueden ser procesadas. Su re-sultado es la diferencia entre las unidades aceptadas

y las unidades transferidas al siguiente proceso.URT

i1 = UA

i1+UTF

i1 (7)

• Unidades que quedan en proceso: IFPPi1 Corresponde

a la diferencia entre el total de unidades por distri-buir y las unidades terminadas. La relación que

permite su cálculo es la (8):IFPP

i1 = TUD

i1+UT

i1 (8)

4.2. Proceso s= 2, …, S

En estos procesos de la cadena de manufactura,hay recepción de unidades por la transferencia

efectuada desde los procesos precedentes. Los ítems

de los componentes definidos son:

� Unidades por distribuir: En concordancia con

lo expuesto para el proceso 1, en el comporta-miento para s =2,…, S se tiene:

• Inventario inicial de productos en proceso: Iois Canti-

dad de productos que se tienen en el proceso s al

iniciar el período de control y monitoreo, consti-tuido por productos totalmente terminados y re-tenidos y por productos que no han sido termi-

nados íntegramente para los cuales se definió sunivel de avance.

• Cantidad de productos tipo i realmente trabajados en el

proceso s: QPRPis es la relación de resultado gene-

rado mediante la relación (9):

QPRPis

= LPRis

× Qi

* (9)

En donde, *

i

Q es el lote óptimo de productos tipo i.

• Unidades recibidas del proceso anterior: URBis El cál-

culo de esta información se aplica a partir del con-junto de reglas de decisión (10), en donde :

Sí QPRPis

< UAi s - 1

^ (Iois + UA

is-1)

> QPRPis

URBis

= QPRPis

_ Io

is

Sí no

URB

is = UA

i s - 1

(10)

• Total de unidades por distribuir: TUDis El total de

unidades por distribuir corresponde a la suma delas unidades recibidas y el inventario inicial del pro-ducto tipo i en el proceso s. La relación que permi-

te su cálculo es la (11):

TUDis

= URBis + Iois

(11)

• Distribución de unidades: Los ítems siguientesdeterminan la estructura de la distribución de uni-dades en los procesos s = 2,…, S

• Unidades terminadas: UTis Esta información se cal-

cula con base en los lotes realmente terminadosen correspondencia con los lotes de producciónobtenidos con capacidad ampliada. Las reglas de

decisión utilizadas son las identificadas con (12):

(12)

Sí LTRis

× Qi

* < TUDis

UTis

= LTRis

× Qi

*

Sí no

UT

is = TUD

is

• Unidades rechazadas: URis Es la cantidad de pro-

ductos que no cumplen con la especificación y sucantidad corresponde al nivel porcentual de recha-zo que se presenta al final del período de acumu-

lación y monitoreo del costo, teniendo en cuentaque esta cantidad se distribuye proporcionalmen-te en los S procesos. La relación correspondiente

es la (13).

URis = TUD

is × (PFRi /S) (13)

Page 51: Revista Ingenieria Vo.14 No.1

Ingeniería50 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

50

50

Tabla II. Niveles de inventario inicial en los procesosde cadena de manufactura y su nivel de procesamiento

Tabla I. Gama de productos

Número P. Nombre

1. Aro soporte

Proceso I o Avance de

1 150 90%

2 250 80%

3 150 85%

4 150 90%

Tabla III. Entrada de materiales al proceso

Item Material Proceso 1 Proceso 2 Proceso 3 Proceso 4Materia Aro (1) 1

Prima Platina (2) 2

Material Tornillos (3) 3

Auxiliar Caucho (4) 4

Insumo de Envoltura (5) 5

Producto Caja (6) 6

Tabla IV. Lotes de producciónobtenidos con capacidad ampliada

Item Proceso 1 Proceso 2 Proceso 3 Proceso 4Tiempo por lote 300,00 800,00 400,00 300,00

Lotes que se pueden procesar 12,55 11,28 13,54 9,48

Lotes procesados 12,55 11,28 11,00 9,48

Lotes terminados 12,00 11,00 11,00 9,00

Lotes en proceso 0,55 0,28 - 0,48

6. DESARROLLO DE UN EJEMPLO

DEL CONTROL DE TRANSFERENCIA

Para el desarrollo del ejemplo sobre control de

transferencia en la corriente física de unidades, se toma

como marco de referencia la información siguiente:

6.1. Subsistema de entrada.

• Unidades aceptadas: UAis Es el resultado de la dife-

rencia entre las unidades terminadas y las unida-des rechazadas en el proceso s de la cadena de ma-nufactura.

UAi1 = UT

is + UR

is (14)

• Unidades transferidas: UTFis En el proceso s, las

unidades transferidas son equivalentes a las uni-dades recibidas en el proceso s-1. Su calculo se esta-blece mediante la relación (15):

UTFis = URB

is+1 + UR

is (15)

• Unidades retenidas: URTis Son aquellas unidades

aceptadas, que por la capacidad del siguiente pro-ceso no pueden ser trabajadas. Su resultado es ladiferencia entre las unidades aceptadas y las unida-

des transferidas.

URTis = UA

is + UTF

is (16)

• Inventario final de productos en proceso: IFPPis Co-

rresponde a las unidades que quedan en proceso yes la diferencia entre el total de unidades por dis-

tribuir y las unidades terminadas. La relación quepermite su cálculo es la (17):

IFPPis = TUD

is + UT

is (17)

5. SUBSISTEMA DE SALIDA

Además de la información referenciada en losacápites anteriores, en el contexto de la corriente física

de unidades se acostumbra a proporcionar la

siguiente información referencial:

• Porcentaje de aplicación de materiales:

%AMiks.

Fundamentalmente se determina en que

proceso o sección se incorpora al producto cadamateria prima, material auxiliar e insumo de pro-ducto, expresado como un porcentaje [7].

• Porcentaje de aplicación de mano de obra, cos-

tos de operación y costos generales de fabri-

cación: Es la información concerniente a la manode obra aplicada a la transformación de materialesen cada uno de los procesos e igualmente se ex-

presa como un porcentaje.

• Nivel de avance de obra del inventario final:

NAOis Es la información porcentual estimada so-

bre el nivel de avance de procesamiento de las uni-dades que quedaron como inventario en cada sec-

ción o proceso. Su cálculo se establece a través delcociente entre el número de unidades que quedan

en proceso y el tamaño de lote Q*.

Probabilidad de aceptación estándar del proceso Pa = 95%

Demanda pronosticada (Plan Maestro de Producción PMP)

12.000

Tamaño óptimo de lote Q* 1.000

Porcentaje final de rechazo PFR 4%

Matriz de entrada de materiales al proceso

6.2. Subsistema operacional

En relación con el subsistema de entrada, los

resultados sobre la utilización del subsistemaoperacional se pueden observar en la tabla 5. Elcomportamiento de los cálculos obtenidos para los

procesos s = 1 y s = 2,…, S es el que se describe a

continuación:

A. Unidades por distribuir

• Unidades ordenadas:

Proceso 1: QO11

= 13.000; para los demás procesosesta información no aplica, pues las órdenes deproducción liberadas evidentemente se recepcionan

en el comienzo de la cadena de manufactura.

• Inventario inicial de productos en proceso:

Proceso 1: Io11

= 150

Page 52: Revista Ingenieria Vo.14 No.1

Ingeniería51Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

51

51

Proceso s = 2,…, S: Io12

= 230; Io13

= 150; Io14

= 150

• Unidades empezadas:

Proceso 1: UE11

= 12.400; para los demás procesosno aplica, pues únicamente el proceso 1 es el que

inicia la cadena de manufactura.

• Unidades recibidas del proceso anterior:

Proceso 1: No aplica para este proceso, pues por ser

este el inicio de la cadena de manufactura no tieneprecedentes.

Proceso s = 2,…, S:

Para URB12

se tiene el siguiente comportamientoal aplicar el conjunto de reglas de decisión (10)

La proposición

(QPRP12

= 11.280) < (UA11

= 11.875) y (Io12

+ UA11

= 230 + 11.875 = 12.105) > (QPRP12

= 11.280)

se cumple, por lo cual URB12

= QPRP12

– Io12

=

11.280 – 230 = 11.050

Para URB13

(QPRP13

= 11.000) < (UA12

= 10.888) y (Io13

+

UA12

= 150 + 10.888 = 11.038) > (QPRP13

=

11.000)

Se cumple, por lo cual URB13

= QPRP13

– Io13

= 11.000

– 150 = 10.850

Para URB14

(QPRP14

= 9.480) < (UA13

= 10.890) y (Io14

+

UA13

= 150 + 10.890 = 11.040) > (QPRP14

=

10.890)

Se cumple, por lo cual URB14

= QPRP14

– Io14

=9.480 – 150 = 9.330

• Total unidades por distribuir:

Esta información corresponde a los siguientes re-

sultados.

La proposición

(LTR12

x Q*1 = 11 x 1.000 = 11.000) < (TUD

12 =

11.280) se cumple, por lo cual UT12

= 11 x 1.000

= 11.000, para los demás procesos se tiene UT13

=

11.000; UT14

= 9.000

• Unidades rechazadas:

Proceso 1: UR11

= TUD11

x (PRF1/S) = 12.550 x

(0.04/4) = 125

Proceso s = 2,…, S: UR12

= 112; UR13 = 110;

UR14

= 94

• Unidades aceptadas:

Proceso 1: UA11

= UT11

- UR11

= 12.000 – 125 =

11.875

Proceso s = 2,…, S: UA12

= 10.888; UA13

=

10.890; UA14

= 8.906

·• Unidades transferidas

Proceso 1: UTF11

= URB12

= 11.050

Proceso s = 2,…, S: UTF12

= 11.850; UTF13

=

9.330; UTF14

= 8.906

• Unidades retenidas

Proceso 1: URT11

= UA11

- UTF11

= 11.875 –

11.050 = 825

Proceso s = 2,…, S: URT12

= 38; URT13

= 1.560;

URT14

= 0

• Unidades que quedan en proceso

Proceso 1: IFPP11

= TUD11

- UT11

= 12.550 –

12.000 = 550

Proceso s = 2,…, S: IFPP12

= 280; IFPP13

= 0;

IFPP14

= 480

6.3. Subsistema de salida

En cuanto a la información correspondiente al

subsistema de salida, que es de carácter complementario,

se tiene el cálculo de los siguientes resultados.

Tabla V. Resultados del control de transferencia de la “corriente física de unidades”

Tipo de unidades Estado unidades Proceso I Proceso II Proceso III Proceso IVOrdenadas 13.000

Unidades por Inv. Inicial P.P. 150 230 150 150

distribuir Unidades empezadas 12.400 - - -

Unidades recibidas del proceso anterior - 11.050 10.850 9.330

Total unidades por distibuir 12.550 11.280 11.000 9.480Unidades Terminadas 12.000 11.000 11.000 9.000

Unidades Rechazadas 125 112 110 94

Distribución de Unidades Aceptadas 11.875 10.888 10.890 8.906

Unidades Unidades Transferidas 11.050 10.850 9.330 8.906

Unidades Retenidas 825 38 1.580 -

Inventario final de productos en proceso 550 280 - 480

Aro (1) 100% 0% 0% 0%% de aplicación de materias primas Platina (2) 100% 0% 0% 0%

Tornillos (3) 0% 0% 100% 0%% de aplicación de materiales auxiliares Caucho (4) 0% 100% 0% 0%

Envoltura (5) 0% 0% 0% 100%% de aplicación de insumos de producto Caja (6) 0% 0% 0% 100%

% de aplicación de mano de obra 100% 100% 100% 100%

% de aplicación de costos de operación CO’S 100% 100% 100% 100%

% de aplicación de costos generales de fabricación 100% 100% 100% 100%

Nivel de avance de obra del inventario fonal 55,00% 28,00% 0,00% 48,00%

TOTAL UNIDADES PROCESADAS 12.550 11.280 11.000 9.480

Proceso 1: TUD11

= UE11

+ Io11

=

12.400 + 150 = 12.550

Proceso s = 2,…, S: TUD12

= URB12

+ Io12

= 11.050 + 230 = 11.280;

TUD13

= 11.000; TUD14

= 9.480

B. Distribución de unidades

Para la distribución de unidades se tiene:

• Unidades terminadas:

Proceso 1: UT11

= LTR11

x Q*1 = 12

x 1.000 = 12.000

Proceso s = 2,…, S: Para los cálculosdel proceso 2 al S, se utiliza el conjun-

to de reglas de decisión (12) obtenien-do los siguientes resultados:

Page 53: Revista Ingenieria Vo.14 No.1

Ingeniería52 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

52

52

• Porcentaje de aplicación de materiales: Tenien-

do en cuenta los cuatro procesos de la cadena demanufactura y el conjunto de materiales utiliza-dos en la fabricación del producto en referencia y el

hecho que los porcentajes de aplicación sean en un100% para materias primas, materiales auxiliares einsumos de productos, define en que momento

del desarrollo de la producción se van incorporan-do al proceso. Por ejemplo, en relación con lasmaterias primas “aro (1)” y “platina (2)”, éstos

entran a la cadena de manufactura en el proceso 1,por lo cual su porcentaje de aplicación es referidocomo el 100%. Los materiales auxiliares “torni-

llos (3)” entran en el proceso 3, mientras que “cau-cho (4)” entra en el proceso 2. Finalmente, losinsumos de productos “envoltura (5)” y “caja (6)”

entran a la cadena de manufactura en el proceso 4.

• Porcentaje de aplicación de mano de obra,

costos de operación y costos generales de fa-

bricación: En cada uno de los procesos queestructuran una cadena de manufactura, la aplica-

ción de mano de obra debe ser del 100% para quelos productos allí trabajados puedan ser transferi-dos al siguiente proceso hasta obtener el produc-

to final, salvo para aquellos productos que que-dan en proceso, para los cuales se determina elporcentaje de nivel de avance de obra.

• Nivel de avance de obra del inventario final:

De acuerdo con la información de la tabla 5, los

inventarios IFPPis tuvieron un porcentaje de apli-

cación de mano de obra. Teniendo en cuenta lacantidad de productos que quedaron en proceso y

el tamaño óptimo de los lotes, los resultados sonlos siguientes:

NAO11

= IFPP11

/ Q*1 = 550 / 1000 = 0,55 = 55%;

NAO12

= 28%; NAO13

=0% y NAO14

= 48%

7. CONCLUSIONES

Con el tratamiento de este artículo, se comprueba

la necesidad de desarrollar sistemas de informaciónque permitan poner en funcionamiento los sistemasde manufactura, de tal manera que la información

que se va generando a través del subsistemaoperacional permita establecer la trazabilidad y elcontrol requeridos, en razón al alto nivel de

complejidad que representa un sistema empírico demanufactura por procesos.

Una ventaja fundamental del desarrollo de

sistemas de información para el control detransferencia en una cadena de manufactura, esla posibilidad de efectuar la trazabilidad y el control

del sistema en tiempo real, a la vez que permiteverificar los resultados de eventos normales en elfuncionamiento de la cadena tales como los niveles

de aceptación y de rechazo, los niveles de inventarioque quedan en proceso en cada componente de lacadena, la cantidad de productos retenidos y

transferidos, con lo cual se verifica el comportamientoreal del sistema.

Otro aspecto que es necesario resaltar, es la novedad

científica que representa el desarrollo del presenteartículo, pues en el estado del arte de esta área especificadel conocimiento no existe ningún referente sobre

este tipo de desarrollo alcanzado.

REFERENCIAS BIBLIOGRÁFICAS[1] Torres Acosta, J.H. Costos de producción. Teoría y aplicación.

Serie biblioteca de catedráticos. Fondo editorial UDFJC. Bogotá1991

[2] Hargadon, B. y Munera, A. Contabilidad de costos. EditorialNorma. Bogotá D.C. 1997.

[3] Torres Acosta, J.H. ingeniería de costos. Un enfoque para lamanufactura. Inédito. En publicación 2005

[4] Torres Acosta, J.H. Guía de cátedra: Costos y Presupuestos.Especialización en Ingeniería de Producción. UDFJC. Bogotá.1999.

[5] Torres Acosta J.H. Elementos de producción. Planeación, pro-gramación y control. Sistema de investigaciones UCC. EditorialPuntos Gráficos Ltda. Colombia. 1994.

[6] Torres Acosta, J.H. Introducción a la logística. Inédito. 2003

[7] Backer y Jacobsen. Contabilidad de costos. Un enfoque admi-nistrativo y de gerencia. McGraw-Hill. México. 1988.

1. Jairo Humberto Torres AcostaIngeniero Industrial de la Universidad Distrital Francisco José deCaldas, Bogotá, Colombia. Especialista en Ingeniería de Producción

en la Universidad Distrital Francisco José de Caldas, Bogotá, Colom-

bia. Magister en Investigación de operaciones en la Universidad

Nacional Autónoma de México. Doctor de la Universidad CentralMartha Abreu de las Villas, Cuba.

Profesor de las áreas de investigación de operaciones, manufactura,

ingeniería de calidad e ingeniería de costos a nivel de pregrado y

postgrado. Ha publicado cuatro libros en el área de Ingeniería deManufactura y Costos.

Profesor invitado de la Universidad de Oviedo y de la Universidad

Pontificia de Salamanca campus de Madrid. Director grupo de inves-

tigación “Modelos Matemáticos Aplicados a la Industria MMAI” e in-vestigador grupo “GICOGE”. Presidente de la empresa JHTA Inver-

siones, empresa del sector de transformación de la madera y director

Sénior de la empresa SEIP LTDA. (Servicio de Ingeniería y Producti-

vidad). [email protected]

Page 54: Revista Ingenieria Vo.14 No.1

Ingeniería53Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

53

53

1 C1Ingeniero electrónicoUniversidad Distrital FJC

2 Ingeniero electrónico Uni-

versidad Distrital FJC3 Profesor asistente, Facul-

tad de Ingeniería, Investi-gador, LAMIC Universidad

Distrital FJC

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Edgar Forero1

Edgar Garcia2

Miguel Melgarejo3

Consideraciones metodológicaspara la síntesis automática deprocesadores difusos en ANSI-C

ResumenEste documento presenta algunas consideraciones

metodológicas para desarrollar una herramienta que

genere automáticamente especificaciones de

procesadores difusos, las cuales puedan ser

implementadas en dispositivos de hardware

empotrado. La descripción de las consideraciones se

hace de manera general de tal modo que serviría de

guía para desarrollar herramientas de síntesis

automática de procesadores difusos sobre diferentes

tecnologías hardware. Como caso específico se

presenta una herramienta automática para generar

código en lenguaje de programación ANSI C de

modelos de procesadores difusos especificados en

una herramienta de alto nivel. Además, se presentan

algunos resultados prácticos obtenidos por medio

de esta herramienta.

Palabras clave: lógica difusa, procesadores

difusos, hardware difuso, diseño electrónico

automático, diseño asistido por computador.

Methodological considerationsfor automatic synthesis of fuzzyprocessors in ANSI-C

AbstractThis paper presents some methodological

considerations for developing an automatic tool that

generates specifications of fuzzy processors. Our

considerations are presented generally so that they

could guide the development of automatic tools for

synthesizing fuzzy processors over different hardware

technologies. Additionally, It is presented a particular

case of an automatic tool that synthesizes fuzzy

processors specified in a high-level description tool.

Some practical results obtained by using this tool are

presented and discussed.

Key words: Fuzzy Logic, Fuzzy processors, Fuzzy

hardware, Electronic Design Automation, Computer

Assisted Design.

1. INTRODUCCIÓNLos sistemas difusos son una técnica de inteligencia

computacional que se ha venido desarrollando por

más de 40 años. En especial, la lógica difusa se utiliza

en la industria desde hace varios años con resultados

satisfactorios [1,2,3]. Es común que en el contexto

de la lógica difusa se utilicen plataformas de cómputo

especializadas para realizar las implementaciones,

dando lugar al concepto de procesador difuso [3,4].

Los procesadores difusos están presentes en

aplicaciones donde el consumo de potencia, la

velocidad de procesamiento y el espacio ocupado son

parámetros importantes [5].

En general, se utilizan plataformas hardware que

cumplen con las especificaciones del problema. Sin

embargo, la implementación de los procesadores

difusos en estas es un proceso lento y costoso si se

aborda manualmente [4,12-15]. Esta particularidad

se debe a que el proceso de diseño e implementación

requiere de desarrolladores con conocimientos en

lógica difusa y que además sean especialistas en

desarrollo de hardware.

Lo anterior ocasiona que en aplicaciones, donde

implementar un sistema difuso es una estrategia

viable, se decida utilizar otra metodología, pues los

costos se incrementan al necesitar mano de obra

especializada y al elevar el tiempo de especificación de

los sistemas. Al encontrarse actualmente algunas

herramientas para la descripción de sistemas difusos

[4], es evidente la posibilidad de desarrollar una

herramienta que interprete los datos que se obtienen

al realizar descripciones de sistemas difusos en alto

nivel. Además esta interpretación permitiría realizar

la generación automática de una especificación en un

lenguaje de programación y que esta fuese llevada a

un dispositivo hardware.

Por tanto, este trabajo busca presentar algunas

consideraciones metodológicas para la síntesis

automática de procesadores difusos en lenguaje

ANSI C. En la formulación de estas consideraciones

se toma como referencia el esquema general de un

sistema difuso para proponer un modelo

computacional de implementación. Luego, se

describe cómo se puede sintetizar este modelo

computacional en una especificación ANSI C a partir

de un sistema difuso modelado por medio de una

herramienta de diseño asistido.

En la actualidad es posible encontrar algunas

herramientas que realizan síntesis automática de

Page 55: Revista Ingenieria Vo.14 No.1

Ingeniería54 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

54

54

Figura 4. Algoritmo para larealización de un fusificador

singlenton.

Para la fusificación es necesario contar con las

funciones de pertenencia de las entradas. Calcular una

función de pertenencia tipo trapezoidal demanda el

conocimiento de cuatro parámetros. Estos parámetros

corresponden a los mostrados en la Figura 3. La

función de pertenencia de tipo triangular es un caso

especial de la función de pertenencia de tipo trapezoidal

en donde los parámetros P2 y P3 son iguales.

Figura 2. Fusificación singletonempleada en el modelo computacional.

Figura 3. Parámetros quedescriben la función trapezoidal.

procesadores difusos [4,6]. Sin embargo estas fueron

desarrolladas considerando casos específicos de

plataformas hardware y no se aborda el problema

con una propuesta general que pueda ser utilizada en

la síntesis de procesadores difusos sobre diferentes

plataformas hardware.

El artículo está organizado como sigue: En la

sección 2 se presenta el modelo computacional general

para realizar la descripción de de los tres componentes

de un sistema difuso. En la sección 3 se presentan las

consideraciones metodológicas para generar

automáticamente los componentes descritos en la

sección 2. En la sección 4, como caso particular, se

presenta una herramienta para la síntesis automática

de sistemas de inferencia difusa en lenguaje ANSI C.

Luego en la sección 5 se muestran y discuten algunos

resultados prácticos obtenidos con la herramienta.

Finalmente se dan algunas conclusiones y se comenta

el trabajo en desarrollo en la sección 6.

2. MODELO COMPUTACIONALLa estructura de un sistema difuso con fusificación

y defusificación se presenta en la figura 1 [1-4]. El

fusificador mapea valores puntuales en conjuntos

difusos, luego el motor de inferencia se encarga de

ejecutar una implicación de los conjuntos de entrada

sobre los conjuntos de salida a partir de una base de

reglas predefinida. Finalmente, el defusificador obtiene

un valor puntual de salida a partir de la agregación de

los conjuntos resultantes de la implicación.

Figura 1. Esquema general de un sistema difuso tipo 1.

REGLAS

conjuntosdifusos de salida

INFERENCIA

FUSIFICADOR DEFUSIFICADOREntrada Salida

conjuntosdifusos de entrada

2.1. Fusificación

Tal como se muestra en la Figura 2, en el proceso de

fusificación se mapean valores puntuales en los

conjuntos difusos que describen los universos

VALOR DEPERTENENCIA

ENTRADA I

discursos de las entradas. Las

funciones de pertenencia

consideradas en este modelo

computacional serán de tipo

trapezoidal, mientras que la

fusificación será de tipo

singleton. Esto debido a que la

combinación del los mismos

conlleva a los más bajos costos

de implementación

independientemente de la

plataforma de cómputo [4].

FUNCION DE PERTENENCIATRIANGULAR

P1 P2 P3 P4

En el cálculo de los segmentos de recta que forman

la función de pertenencia triangular se utilizan dos

expresiones:

(1)

donde x es representa la variable de entrada a fusificar.

Estas expresiones se evalúan dependiendo del

intervalo en que se encuentre la variable con respecto

a los cuatro parámetros que definen la función. Si el

valor de la variable se encuentra entre P1 y P2, el

valor de la función de pertenencia se calcula mediante

la ecuación 1. Si el valor de la variable dentro del

universo de discurso está entre P2 y P3, la función

de pertenencia toma el valor de 1. Si el valor de la

variable se encuentra entre P3 y P4, se utiliza la

ecuación 2 para realizar el cálculo de la función de

pertenencia en ese intervalo. En cualquier otro caso

el valor de la función es cero.

(2)

Por tanto,

computacional-

mente hablando,

la fusificación

s i n g l e t o n

consiste en ubicar

el valor puntual

de entrada dentro

del universo de

discurso y aplicar

luego el cálculo

de la función de

pertenencia para

este punto a

través de una

rutina [5].

Page 56: Revista Ingenieria Vo.14 No.1

Ingeniería55Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

55

55

En este modelo computacional se utiliza el método

del centroide: Este método consiste en tomar la

sumatoria de los valores del universo de discurso

discretizado ponderados por el valor de pertenencia

en cada uno de esos puntos. Este valor se divide

entre la sumatoria del valor de pertenencia en los

puntos del universo de discurso discretizado [1,2].

El conjunto difuso que se opera en el proceso de

defusificación es el resultante de realizar la agregación

de reglas en el proceso de inferencia. Se realiza un

algoritmo, que se presenta en la figura 6, para evaluar

estos valores siguiendo

El proceso de fusificación, por el método descrito

anteriormente, se aplica a todas las funciones de

pertenencia de todos los universos de discurso de

las entradas, tal como se describe en el diagrama de

flujo presentado en la Figura 4. De esta forma se

obtienen todos los valores de pertenencia con los

cuales operará el motor de inferencia que es la

siguiente etapa en el modelo computacional.

2.2. Motor de inferencia

El motor de inferencia se desarrolla a partir de las

características encontradas en la literatura para motores

de inferencia tipo Mandami [1-4].

Para modelar el motor de inferencia se propone

un esquema basado en dos etapas: un proceso de

implicación y un proceso de agregación. De esta

manera, a la salida se obtiene un único conjunto

difuso. Para la implicación y la agregación se emplea

un algoritmo basado en sentencias condicionales “si”

y bucles “para”.

En la implicación se direccionan los valores de

pertenencia almacenados según lo especificado en la

base de reglas, es decir, a partir de los antecedentes,

consecuentes y conectores de cada regla se realiza la

operación de mínimo o máximo según se requiera[2].

Además se necesita saber el grado de activación de

cada función de pertenencia de acuerdo con la entrada

del sistema.

En la agregación se toman los conjuntos

resultantes de evaluar cada una de las reglas y se realiza

una operación máximo entre ellos. Los conjuntos

involucrados en esta operación dependen de las reglas

que se activen en el proceso de implicación. El

resultado de este proceso es un único conjunto de

salida, el cual es la entrada al proceso de defusificación.

La figura 5 muestra de manera resumida este proceso.

Donde xi es el punto evaluado dentro del universo

de discurso de la salida y m(xi) es el valor de pertenencia

del conjunto difuso resultante.

Figura 5. Representación del procesode implicación y agregación.

2.3. Defusificación

La defusificación es el mapeo de un conjunto difuso

a un valor puntual [1]. Existen varios métodos para

realizar la defusificación en un sistema difuso [1-4].

(3)

Figura 6. Algoritmo de defusificación.

3. CONSIDERACIONES

METODOLÓGICAS PARA LA

SÍNTESIS AUTOMÁTICA DE

PROCESADORES DIFUSOS

3.1. Consideraciones generales

Para generar automáticamente especificaciones de

sistemas difusos en un lenguaje de programación,

se propone inicialmente especificar una estructura

general que represente el modelo computacional

de un sistema difuso. La estructura del modelo

computacional de los módulos para la fusificación,

inferencia y defusificación se considera como un

Page 57: Revista Ingenieria Vo.14 No.1

Ingeniería56 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

56

56

modelo estático. Esto es general e independiente

para cualquier sistema, pues siempre se tiene la

misma estructura que va a interpretar y procesar

los datos para generar una especificación en un

lenguaje de programación.

Se presenta dinamismo al considerar los sistemas

de entrada, puesto que las características particulares

de cada sistema difuso a trabajar son diferentes. Esto

no cambia el modelo computacional como tal, sin

embargo, dependiendo de estas características el

desempeño en tiempo y ocupación de memoria del

modelo varían. Al tener este modelo, es necesario

especificar las variables que se necesitan en cada etapa.

Inicialmente se utiliza una herramienta de

descripción de sistemas difusos de alto nivel para

modelar el sistema de interés. Es necesario que esta

herramienta permita la descripción de los sistemas de

acuerdo con las características y limitaciones que hayan

sido establecidas. De esta descripción se obtiene una

especificación que contiene todas las características del

sistema difuso descrito y los datos necesarios para

realizar la síntesis automática. Las variables especificadas

dependen de los datos adquiridos del modelo

desarrollado en la herramienta de alto nivel y los tipos

de datos se conocen dependiendo de las características

del sistema difuso que se esté trabajando.

Para el proceso de generación automática que se

plantea, se debe en primer lugar extraer los parámetros

de la especificación en alto nivel de manera correcta.

Para esto se necesita interpretar la estructura de la

especificación y ubicar todos los parámetros

necesarios. Luego se deben generar todas las variables

que se van a utilizar en el algoritmo. Estas variables

definen el sistema difuso dando características de las

entradas y salidas, de los operadores difusos

utilizados, del tipo de funciones de pertenencia, de la

base de reglas, del tipo de fusificación, etc. El tamaño

y tipo de estas variables se especifica de acuerdo con

los valores extraídos en la especificación de alto nivel.

Un esquema que representa las etapas y los elementos

necesarios se presenta en la figura 7.

Cuando se consideran lenguajes de programación

de plataformas hardware, es necesario realizar la

generación de sentencias que sean características del

lenguaje y variables que se utilizan en el cuerpo de un

programa estándar, pero que no son propias del

procesador que se quiere generar. Por ejemplo, los

archivos cabecera necesarios para el uso de bibliotecas,

variables de configuración de puertos, etc. Esta

consideración varía dependiendo del tipo de hardware

al que se enfoque el desarrollo. Inclusive, si son

plataformas con un mismo lenguaje de programación,

en general la configuración del dispositivo cambia

dependiendo del fabricante [16,17].

3.2. Propuesta de síntesis automática

Aquí se propone realizar la especificación del

fusificador de la siguiente manera: Se generan las

variables necesarias para calcular las funciones de

pertenencia de entradas y salidas del sistema difuso.

Luego se procesan estas variables y se generan las

funciones de pertenencia mediante el modelo

presentado en la segunda sección de este documento.

Para esto se utiliza un módulo generador de

funciones de pertenencia para las entradas y las salidas.

El módulo de generación de funciones de

pertenencia trabaja como sigue: Inicialmente se toman

los valores referentes a las entradas y las salidas del

sistema difuso. Estos valores son para cada entrada

o salida, universo de discurso, número de funciones

de pertenencia y parámetros de cada una de estas

funciones. El resultado del generador es un código

que calcula las funciones de pertenencia de acuerdo

con los parámetros de entrada. Para realizar la síntesis

de las funciones de pertenencia de la entrada se

especifican dos rutinas. Una exterior que referencia al

número de entrada que se está trabajando y otra

interior que referencia la función de pertenencia que

se está calculando. Lo mismo se hace para generar las

funciones de pertenencia en las variables de salida.

En la síntesis del motor de inferencia se sigue el

método descrito en la sección dos de este documento.

Para la generación de este módulo no es necesario

conocer la arquitectura del dispositivo hardware en

donde va a ser empotrado el procesador. Esto debido

a que se busca un modelo general de generación

automática y el entrar en detalles de la arquitectura del

hardware particulariza el modelo. El motor de

inferencia se reduce a la generación de un código que

siga el modelo planteado. Este modelo se basa en

sentencias de bajo nivel encontradas en los lenguajes

de programación utilizados en varías familias de

procesadores [16,17]. En la defusificación se genera

Figura 7. Componentes generadosautomáticamente y datos necesarios.

Fusificador

Interpretaciónde la base de

reglas

Motor deInferencia

Defusificador

Rango U.D.

Parámetros

No. M.F.

No. Entradas

No. Entradas

Agregación

Implicación

Vec. entrada

Conectores

Consecuentes

Antecedentes

Page 58: Revista Ingenieria Vo.14 No.1

Ingeniería57Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

57

57

automáticamente el algoritmo que se presenta en la

sección dos para el cálculo del centroide.

4. HERRAMIENTAS PARA LA

GENERACIÓN AUTOMÁTICA DE

SISTEMAS DIFUSOS EN ANSI-C

Como caso específico de aplicación de las

consideraciones metodológicas descritas, se describe

una herramienta de síntesis automática de

procesadores difusos en ANSI C, considerando lo

siguiente: una caja de herramientas para sistemas

difusos se utiliza como interfase de especificación de

sistemas difusos de alto nivel. Esta plataforma

igualmente se utiliza para hacer la especificación de la

herramienta de generación automática. Finalmente se

escoge generar código ANSI C, el cual es un lenguaje

de programación utilizado en varias tecnologías que

se encuentran en el mercado como micro controladores

y procesadores digitales de señales [11,16].

Para realizar esto, inicialmente se realiza la

generación automática de sistemas difusos en lenguaje

de especificación alto nivel. Luego se utilizó el modelo

computacional descrito para generar especificaciones

en C. La generación automática de los sistemas

difusos, se realizó utilizando comandos especiales

de la plataforma empleada para este propósito [8].

La tabla 1 muestra las características de la herramienta.

Las restricciones del número de entradas, salidas y

reglas dependen del hardware donde se proyecte la

implementación.

la siguiente manera:

1) Se describe un sistema difuso con la herramienta

de especificación de alto nivel.

2) Se genera automáticamente el modelo en C con la

herramienta desarrollada.

3) Se mide el tiempo de síntesis para 1000 generacio-

nes del mismo sistema.

4) Se evalúan los dos sistemas difusos en distintos

puntos sobre todo el universo discurso. Para el

caso en que los sistemas de interés tengan más de

dos entradas, solo se toman dos de ellas para la

realización del proceso de validación.

5) Luego se normaliza el universo de discurso [UDN]

de salida del sistema difuso al intervalo [0 1].

6) Finalmente se calcula el error cuadrático medio

[ECM] de los valores de salida entregados por la

herramienta para generar la especificación C con

respecto a los valores de salida entregados por la

caja de herramientas de sistemas difusos. Para los

casos de interés, el ECM se halló mediante (5).

Tabla I. Características de la herramientade generación de código ANSI-C.

5. RESULTADOS

Para validar la herramienta se especificaron algunos

sistemas difusos en la caja de herramientas de

sistemas difusos de la plataforma de desarrollo.

Luego de esto se utilizó la herramienta para generar

la especificación C de tales sistemas. Finalmente, se

evaluaron los sistemas, el especificado en la caja de

herramientas y el generado automáticamente

comparándose los resultados.

5.1. Metodología de la validación

Se realizaron algunos experimentos para validar la

herramienta desarrollada con las consideraciones

propuestas en este trabajo. Cada prueba se realizó de

Fusificación singlenton Numero entradas Sin restriccion

Numero de reglas Sin restriccion Numero de salidas Sin restriccion

Resolución 32 bits Tipo de funciones Trapezoidales

defusificacion Centro de gravedad Implicacion Mandami max-min

Tipo de datos Float

(4)

donde, Xf (i1,i2) es el valor de salida del sistema difu-

so realizado en la caja de herramientas de sistemas

difusos para los valores de i1,i2, X

c (i1,i2) es el valor de

salida del sistema difuso realizado con la herramien-

ta de síntesis automática para los valores de i1,i2 y

n1,n2son el número de puntos evaluados para la en-

trada 1 y 2 respectivamente.

5.2. Resultados

La tabla 2 muestra el error cuadrático medio, el

error cuadrático medio con el universo de discurso

de la salida normalizado y los tiempos de síntesis de

algunos sistemas considerados.

Al considerar cada aplicación referenciada para

validar la herramienta se observa que el error obtenido

con respecto a la simulación realizada no es

significativo. Esto se constata si se compara una

desviación de la magnitud del error en el valor de

salida del sistema.

El tiempo de síntesis varía de sistema en sistema

pues depende del número de reglas y de funciones

de pertenencia de todo el sistema. Además el

Tabla II. Resultados validación de la herramienta, donde (a). Sistema deposicionamiento de un vehículo [1], (b) Controlador de un generador síncrono [9], (c)

Predictor de serie de tiempo caótica [1], (d) Tratamiento de aguas residuales [10].

Sis. No. No. ECM ECM UDM Tiempo de síntesis del sistemaentradas salidas reglas Valor Medio[s] Desviación estándar[s]

a 2 1 27 2.23E-10 3.49E-14 0.022262 0.0038

b 2 1 49 2.105E-13 2.33E-14 0.0273895 0.0062

c 4 1 57 3.83E-7 1.288E-7 0.0344045 0.0046

d 2 2 25 1.78E-10 1.306E-15 0.022798 0.0047

Page 59: Revista Ingenieria Vo.14 No.1

Ingeniería58 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

58

58

computador donde se realiza la generación también

influye. El tiempo de generación presentado en la

tabla 2 fue el resultado de generar mil veces el mismo

sistema, tomar el tiempo implementado y dividir el

resultado entre mil. Se realizó de esta manera con el

fin de tener una validación estadística del tiempo de

síntesis.

6. CONCLUSIONES

Se presentaron algunas consideraciones

metodológicas acerca del desarrollo de herramientas

para la síntesis automática de sistemas difusos a partir

de una descripción en un lenguaje de alto nivel. Se

tuvieron en cuenta estas consideraciones para

desarrollar una herramienta de generación automática

de procesadores difusos en lenguaje de programación

ANSI C.

Con la creación de una herramienta para la síntesis

automática de sistemas difusos en procesadores

comerciales, se reduce de manera significativa el

tiempo, la complejidad y los costos en la

implementación de este tipo de sistemas. Es por

esto que se hace posible el uso de la herramienta en

aplicaciones industriales y académicas.

Actualmente, la herramienta se está extendiendo

para generar código C adaptado a la arquitectura varias

arquitecturas de procesadores comerciales de bajo

costo[16]. El propósito a largo plazo es integrar la

mayor cantidad de arquitecturas posibles en un único

entorno de desarrollo de síntesis automática.

REFERENCIAS BIBLIOGRÁFICAS[1] L. X. Wang, A course in Fuzzy Systems and Control, Prentice Hall,

1997.

[2] R. Babuska, Fuzzy modeling for control, Kluwer academics, 1998.

[3] J. Mendel, Uncertain rule based fuzzy logic systems, PrenticeHall, 2000.

[4] A. Baturone, S. Barriga, S.Sanchez, C. Jimenez and D. Lopez,Microelectronic Design of Fuzzy Logic-Based Systems, CRC Press,2000

[5] M. Melgarejo y C. Peña, Implementing interval type-2 fuzzyprocessors, IEEE computacional Intelligence Magazine, Vol 2 No1, Feb. 2007, pp 63-72.

[6] Instituto de Microelectrónica de Sevilla , XFUZZ, http://www.imse.cnm.es/Xfuzzy/Xfuzzy_3.0/xfl/packages_sp.html.

[7] C. H. Chen, Fuzzy Logic and Neural Networks Handbook , McGraw-Hill, 1996, pp. 23.12.

[8] A. Gaona y D. Olea, Desarrollo de un Sistema de Inferencia Di-fusa Sobre FPGA, Universidad Distrital FJC, 2003.

[9] J. Brock , “Design and implementation of a fuzzy logic-basedvoltage controller for voltage regulation of a synchronousgenerator”, Technical Report, Montana State University. 2004.

[10] O. Pires et al ,”A fuzzy-logic based expert system for diagnosisand control of an integrated wastewater treatment”, Proceedingsof the 2nd Mercosur Congress on Chemical Engineering –ENPROMER and 4th Mercosur Congress on Process SystemsEngineering , Rio de Janeiro, 2005

[11] M. Brand and A. Massa, Programming embedded systems withC and GNU tools, 2nd edition, O’Reilly, 2006.

[12] R. Rovatti, “High Speed Implementation picewise – quadraticTakagi-Sugeno System with memory saving”, in proc. IEEE Int.Conference on Fuzzy Systems, comunicaions and Computers,pp 6451 – 6454. Athenas, 1999.

[13] R. Rovatti, M. Vittuari, “Linear and Fuzzy piecewise – linear signalprocessing with an extended DSP archictecture”, in proc. IEEEInt. Conference on Fuzzy System, pp 1082 – 1087, Anchorage,1998.

[14] A. Gaona, D. Olea and M. Melgarejo, “Sequential Fuzzy Inferencesystem Based on distributed Arithmetic”, International simposiumon computacional Inteligence for Messurement system andAlications, Lugano, Switzrland, 2003, PP 125 – 129.

[15] A. Gaona, D. Olea and M. Melgarejo, “Distributed Arithmetic inthe Desing of High Speed Hardware Fuzzy Inference System”,22nd International Conference of the North American FuzzyInformation Processing Society – NAFIPS, 2003, p. 116 – 120.

[16] Z. Camelo, F. Tellez y M. Melgarejo,” Modelo computacional deinferencia difusa para la arquitectura DSPIC33F”, ·3rd IEEEColombian Workshop on Circuits and Systems CWCAS´09,Bogota, Colombia, 2009.

Edgar ForeroIngeniero Electrónico de la Universidad Distrital Francisco José deCaldas (2008). Líder de la línea de tecnologías Virtuales orientadas

a el desarrollo de aplicaciones para televisión digital y desarrollo de

sistemas mediante el uso de inteligencia artificial en TecnoParque

Colombia nodo Central. Paralelamente se desempeña como CTO denetwork TV, una empresa que realiza soluciones de televisión sobre

plataformas WEB. [email protected]

Edgar GarcíaIngeniero Electrónico de la Universidad Distrital Francisco José de

Caldas (2008). Se desempeña actualmente como ingeniero de

automatización y control para la empresa RAYCO LTDA.

Miguel MelgarejoIngeniero electrónico de la Univerisdad distrital Francisco José de

Caldas, Magister en Ingeniería electrónica y computadores, de la

Universidad de los Andes, Bogotá Colombia. Ha sido investigador delCentro de Microelectrónica de la Universidad de los Andes, Colom-

bia e investigador invitado del Logic Systems Laboratory de la Ecolé

Polytechnique Federale de Lausanne, Suiza. Actualmente es profe-

sor asistente de la facultad de ingeniería de la Universidad DistritalFrancisco José de Caldas, Colombia e investigador del Laboratorio

de Automática, Microelectrónica e Inteligencia Computacional

(LAMIC) en la misma universidad. Ha publicado 45 artículos técnicos

y dos capítulos de libro. [email protected]

Page 60: Revista Ingenieria Vo.14 No.1

Ingeniería59Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

59

59

1 Doctorando en Informática de

la Universidad Pontificia de

Salamanca, España. Miembro

del Grupo de Investigación

GICOGE.

2 Consultor en Branding del

Tecnológico de Monterrey

sede Colombia. Estudiante de

Doctorado en Informática dela Universidad Pontificia de

Salamanca de España. Miem-

bro del grupo de Investigación

en Tráfico Inteligente y Segu-

ridad Ciudadana.

3 PhD. en Informática Universi-

dad de Oviedo. Profesor Uni-

versidad Distrital, Facultad de

Ingeniería. Investigador prin-cipal Grupo de Investigación

GICOGE.

4 PhD. en Informática de la

Universidad de Oviedo. PhD.en Ciencias Políticas y Socio-

logía de la Universidad

Pontifica de Salamanca. Miem-

bro del grupo GICOGE. Direc-

tor del grupo de investigación:Ingeniería del Software y So-

ciedad de la Información y el

Conocimiento, Universidad

Pontificia de Salamanca.

Artículo recibido en Junio de 2008, aprobadopara publicación en Agosto de 2008

Luís EduardoCano Olivera 1

Pedro EnriqueEspitia Zambrano 2

José NelsonPérez Castillo 3

Luis Joyanes Aguilar 4

ResumenEste artículo presenta los pasos para realizar los

cambios de integración y migración de informaciónde los repositorios digitales en diversas plataformas

de código abierto (Open Source) con el fin degarantizar la estandarización de las solucionesinformáticas propias de las Instituciones de

Educación Superior (IES). Además de mejorar elacceso a la aplicación impendiendo que personas noautorizadas a la IES se registren dentro del sistema.

Adición a este problema, existe el que se viene

presentando dentro de las Tecnologías de laInformación y las Comunicaciones (TICs), con el augede información que es registrada segundo a segundo

a nivel mundial por el fenómeno de la Web 2.0 [9].Información que en la mayoría de los casos no puedeser reutilizada tanto por centros de investigación y/o

sector académico al no existir adecuadas herramientasinformáticas que permitan centralizar la gestión delconocimiento en un determinado sitio y de manera

especializada según los diferentes Núcleos Básicosdel Conocimiento (NBC) que existen dentro delsector educativo [5], sin olvidar además los costos en

las licencias de software que puedan existir.

Pese a que los movimientos del software libre [6][7]y del código abierto [8], los que no se deben

confundir, hayan suministrado algunas herramientasinformáticas para la gestión del conocimiento; en lamayoría de los casos estas herramientas no se pueden

integrar entre sí con otros sistemas de informaciónque tenga una IES, debido a la poca documentaciónque existe y/o a la especificación única dada a un

determinado lenguaje de programación y/o motorde base de datos y/o plataforma tecnológica con quefueron desarrollados, entre otros. Obligando a queen una determinada IES tenga que realizar diferentes

implementaciones descentralizadas con informaciónredundante en sus sistemas de información, sin queéstas estén sincronizadas con otras soluciones

informáticas que tenga la misma institución.

Palabras clave: Conocimiento, RepositorioDigital, Sistema de Información, Software Libre,

Software Código Abierto, Biblioteca Digital, Objetos

de Aprendizaje, Institución de Educación Superior.

Integration of Digital Repositories forthe Knowledge Management in theColombian University Ambience

AbstractThis article presents the steps to realize the changes

of integration and migration of information ofdigital repositories in different platforms of OpenSource (Open Source) in order to guarantee thestandardization of any proper informatic solutionsof the Universities of High School (UHS). Inaddition to improving the access to the applicationpreventing persons not authorized to the UHS fromregistering inside the system.

Addition to this problem, it exists the one that hasappearing inside the Information Technologies andthe Communications (ITCs), with the heyday ofinformation that is registered second to second on aglobal scale by the phenomenon of the Web 2.0 [9].Information that in most cases cannot be re-used somuch by research centers and/or academic sector afterthere did not exist suitable informatic tools that allowto centralize the knowledge management in a certainplace and of way specialized according to the differentBasic Nuclei of the Knowledge (BNK) that exist insidethe educational sector [5], without forgetting also thecosts in the licenses of software that could exist.

Although the movements of the free software [6]7] and with the open source [8], which must notmake a mistake, they have provided some informatictools for the knowledge management; in most casesthis tools cannot integrate between themselves withother information systems who has an UHS, due tofew documentation that exists and/or to the onlyspecification started to a certain computer languageand/or engine of database and/or technologicalplatform with which they were developed, betweenothers. Forcing that in a certain UHS has to realizedifferent implementations decentralized withredundant information in his information systems,without these being synchronized with otherinformatic solutions that the same institution has.

Key words: Knowledge, Digital Repository,Information System, Free Software, Open SourceSoftware, Digital Library, Objects of Learning,

University High School.

Integración de Repositorios Digitalespara la Gestión del Conocimiento en elámbito universitario Colombiano

Page 61: Revista Ingenieria Vo.14 No.1

Ingeniería60 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

60

60

Figura 1. Generación de informaciónvaliosa de acceso colectivo.

Fuente: adaptada por los autores.

1. INTRODUCCIÓNEn el desarrollo de los programas académicos y de

los centros de investigación que ofrecen lasInstituciones de Educación Superior (IES), se generanconstantemente muchos datos, resultado de proyectosde investigación, trabajos, monografías y tesis, entre

otros. Sin olvidar que de toda esta cantidad de datos,se establece que entre un 60% y 70% se convierten eninformación y que de este rango, sólo entre un 5% y

15% se convierte en verdadero conocimiento. Tambiénse destaca, que de ese porcentaje de datos, en sumayoría desconocido por muchos sectores, conlleva a

que se repitan y/o dupliquen una y otra vez endiferentes proyectos con diferentes nombres losmismos contenidos, presentando estancamiento en

la Gestión del Conocimiento.

Es en este sentido que surge la pregunta, ¿En dóndepuede existir un sistema dentro del sector educativode consulta de resultados y/o avances de proyectosya sean fallidos y/o exitosos, para que se tomen comoreferencia para nuevos prototipos y/o proyectos deinvestigación? La respuesta es objetiva, dentro delsector bibliotecario de una IES, el cual, está encargado

de almacenar y gestionar toda la producción intelectualque le llegue, con un pequeño inconvenientedetectado y es que ésta no queda digitalizada sino en

inconvenientes, independiente de las características

técnicas y/o lógicas que tengan dichas soluciones

informáticas para el manejo de los Repositorios.

2. DIFERENCIANDO DATOS,INFORMACIÓN, CONOCIMIENTOY GESTIÓN DEL CONOCIMIENTO

Es importante puntualizar en los conceptos de:datos, información, conocimiento y gestión del conocimiento

y cómo están relacionados entre sí, en vista a que sepresenta confusión entre estos conceptos llevando auna mala interpretación de los mismos y afectando

en última instancia los resultados obtenidos encualquier implementación que se desarrolle.

2.1. Dato: Se conoce como una representación

simbólica (que puede ser numérica, alfabética, algorítmica

etc.), un atributo o una característica de una entidad,el cual, no tiene un valor semántico (es decir, sentido)

en sí mismo y que son generadas por las personas.En informática, se dice además, que el dato seencuentra dispuesto de una manera adecuada para

su tratamiento por un determinado computador.[1][3][4][34]. Convirtiéndose en la base de lainformación.

2.2. Información: Se ha definido como un

conjunto de datos que son procesados de una maneraorganizada y con un determinado sentido semántico,constituyendo un mensaje sobre un ente o entidad.

[1][3][4][34].

2.3. Conocimiento: Surge a partir del análisis yuso productivo de la misma información,definiéndolo en última instancia como el conjunto

organizado de datos e información que permitenresolver un determinado problema o tomar unadecisión (es decir, un conocimiento “accionable”).

[1][3][4][34].

2.4. Gestión del Conocimiento: Se ha definidocomo un proceso tanto cultural como tecnológico,

que busca captar y transformar el conocimientoindividual para sistematizarlo y convertirlo eninformación valiosa de acceso colectivo. [1][3][4]

Ver Figura 1.

3. IMPORTANCIA DE LA EDUCA-CIÓN, LAS UNIVERSIDADES YLOS NÚCLEOS BÁSICOSDEL CONOCIMIENTO

Otros actores a tener en cuenta en este proceso,son aquellos que determinan las directrices de la

educación dentro de los programas de formaciónprofesional ofrecidos como son las Instituciones de

físico. Además, si le agregamosel factor de desplazamiento

geográfico, se puede deducir quealguien interesado en un tópicodiferente no puede tener acceso a

la información de su interés ytendría que empezar desde cerosus estudios sin poder reutilizar

los resultados previos al área deinterés de cualquier investigador.

En razón a ello, ha surgido unasolución para este tipo de

situaciones proveniente de lasTecnologías de la Información ylas Comunicaciones (TICs)

conocidas como Repositorios,algunos de licencia propietaria(Copyright) y otros de software

libre (GPL) o de código abierto(Open Source), los cuales no sedeben confundir entre sí, siendo

una alternativa para las IES quequieran incursionan en estecampo de acción, pero que por

sus características técnicas, no sonfáciles de integrar con otro tipode Sistemas de Información (SI).

En éste escrito se explicametódicamente, cómo puedenlas IES enfrentar estos

Page 62: Revista Ingenieria Vo.14 No.1

Ingeniería61Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

61

61 Figura 2 .Estadísticas en Colombia sobre Repositoriospor el tipo de Contenido. Tomado de OpenDoar [35].

Educación Superior (IES), y que se fundamentan en

las diferentes categorías existentes de los NúcleosBásicos del Conocimiento (NBC) [5] suministradospor el Ministerio de Educación Nacional (MEN)[5],

para analizar el proceso de formación de la educaciónnacional en Colombia.

Los “Núcleos Básicos del Conocimiento”(NBC), consisten en la afinidad que tengan en loscontenidos programáticos y los campos específicosdel conocimiento existentes. En total existen 55 NBC,

entre los que se destacan: Economía-Administración-Contaduría y afines, la Ingeniería-Urbanismo y afines,las Ciencias Sociales y Humanas, la Agronomía-

Veterinaria y afines y la Matemáticas y CienciasNaturales, según las estadísticas suministradas por elmismo MEN. [5]

Esta categorización de los NBC, ha facilitado el

aprendizaje y fortalecimiento de grupos deinvestigación, semilleros de investigación,comunidades especializadas multidisciplinarias y del

sector educativo en general. Pero para que se puedarealizar una congruente Gestión del Conocimiento,se necesita la implementación de tecnologías basadas

en repositorios digitales, las cuales están siendoimplementadas en Colombia a través de unaherramienta de código abierto para repositorios como

lo es DSPACE [21] con un 92% de aceptación, pese aque existen otras en el mercado.

Necesidades que en Colombia han sido analizadasy adoptadas por las siguientes IES: Corporación

Universitaria Lasallista [36], Corporación UniversitariaMinuto de Dios. [37], E-medicina fetal [38], InstitutoInteramericano de Cooperación para la Agricultura

IICA oficina en Colombia.[39], UniversidadAutónoma de Occidente [40], Universidad deAntioquia (UdeA) [41], Universidad de la Salle [42],

Universidad de los Andes [43], Universidad delRosario [44], Universidad ICESI [45], UniversidadNacional de Colombia [46] y Universidad Nacional

Abierta y a Distancia de Colombia (UNAD)[47]. Verfiguras 2 y 3.

Y le sigue en segundo lugar, SciELO [52], un

modelo para la publicación electrónica cooperativade revistas científicas en Internet con un 8%, adoptadaen la actualidad por la Universidad Nacional de

Colombia [46]. (Ver Figura 4).

Figura 3. Estadísticas en Colombia sobre elcrecimiento de base de datos sobre Repositorios

del 2006 al 2009. Tomado de OpenDoar [35]

Figura 4. Estadísticas sobre el software pararepositorio más utilizado en Colombia.

Tomado de OpenDoar [35].

4. SISTEMAS DE INFORMACIÓN(SI) Y REPOSITORIOS

4.1. Sistema de Información

Cuando se habla de un “Sistema deInformación”(SI) se nos viene a la mente, elconjunto de elementos que están orientados al

tratamiento y la administración de los datos y lainformación, los cuales, ayudan en la generación denuevo conocimiento, de acuerdo a su propósito.

Debido al crecimiento en datos e informaciónprocesados por los sistemas de información para quepuedan ser consultados de manera centralizada, ha

surgido el concepto de repositorios.

4.2. Repositorio

Un “repositorio, depósito o archivo” se ha

definido como un sitio centralizado donde sealmacena y mantiene la información digital,habitualmente en bases de datos o archivos

informáticos. En el latín original, la palabrarepositorium significa armario o alacena. El inglés laasume como repository y el castellano como repositorio.

El término se usa actualmente para definir los archivosabiertos, de ámbito institucional y de acceso público,que almacenan trabajos en soporte digital. [57].

El Diccionario de la lengua española de la Real Academia

Española de 2001, incluye la palabra repositorio como:“lugar donde se guarda una cosa”. La última edición

Page 63: Revista Ingenieria Vo.14 No.1

Ingeniería62 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

62

62

del Diccionario Collins universal de 2005 la traduce

como: “depósito”.[58]. En vista de este significadoel imaginario colectivo suele hacerse a la idea mentalde un depósito como un almacén o armario donde

se puede guardar algo. La palabra repositorio en este

contexto connota a algo archivado, escondido,inmovilizado; recuerda algo antiguo y pasado de

moda. [57]. Todo ello inconsciente, que podríaagregarse a los doce factores que apunta Alice Keefer(2007) que explican la resistencia de muchos autores

a incluir sus producciones intelectuales en losrepositorios. [59].

Estas apreciaciones quedan lejos del dinamismo que

la palabra le exige al significado moderno, que hacereferencia a un espacio institucional, dinámico, dondese puede incluir un documento con la certeza de que

quedará a disposición de un abanico amplio deusuarios. Es así que los “depósitos” están preparadospara distribuirse habitualmente sirviéndose de una

red informática como Internet o en un medio físicode información digital. Y pueden ser de acceso público,o pueden estar protegidos y necesitar de una

autentificación previa. Los depósitos más conocidosson los de carácter académico e institucional.

A diferencia de los computadores personales (PCs),los depósitos suelen contar con sistemas de Backup

y mantenimiento preventivo y correctivo, lo que haceque la información se pueda recuperar en el caso deque una máquina o PC quede inutilizable. Los

depósitos se utilizan de forma intensiva en el sistemaoperativo GNU-Linux, almacenando, en su mayoríapaquetes de software disponibles para su instalación

mediante un gestor de paquetes.

4.3. Clasificación de Repositorios:

Dentro de los repositorios han surgido los

siguientes, de acuerdo al enfoque al que están

dirigidos:

4.3.1. Repositorio Digital (RD):

Un sistema en red formado por hardware,software, data y procedimientos que:

• Contiene objetos digitales (OD).• Contiene metadatos.• Asegura la identificación persistente del objeto

mediante un identificador único persistente.• Ofrece funciones de gestión, archivo y preserva-

ción de los objetos.

• Proporciona un acceso fácil, controlado y estan-darizado a los objetos.

• Ofrece los sistemas adecuados de seguridad para

los objetos y los metadatos.• Sostenible en el tiempo.

Figura 5. Representación de un ROA

4.3.3. Repositorio Temático (RT)

El RT reúne sus contenidos en función de su áreatemática, no por su origen institucional (ej.Arxiv) en

torno a una disciplina científica o disciplinas relacionadas.

4.3.4. Repositorio Institucional (RI):

Es aquel creado, mantenido y autorizado por unaInstitución (no exclusivamente una Universidad) o ungrupo de Instituciones, que recoge los contenidos

digitales generados por la actividad de los miembros deesa Institución. [49]. La organización SPARC [50]define los Repositorios Institucionales como sigue:

• Pertenecen a una institución• Son de ámbito académico.• Son acumulativos y perpetuos.• Son abiertos e interactivos.

Clifford Lynch, refiriéndose al ámbito universitariodefine el repositorio institucional como “un conjunto

de servicios que una Institución ofrece a sucomunidad para la gestión, y difusión de loscontenidos digitales generados por los miembros de

esa comunidad. Es, en su nivel más básico, uncompromiso organizativo para el control de esosmateriales digitales, incluyendo su preservación, su

organización, acceso y distribución” [48]. El tipo decontenido que puede manejar el RI es:• Documentos “textuales”: libros, tesis, pre-prints,

artículos de libros, ponencias, documentos detrabajo, informes técnicos, revistas, entre otros.

• Objetos de aprendizaje (OA)

• Software• Imágenes, estáticas y en movimiento

El contenido del RD permite que se conserve:

• Patrimonio cultural de las organizaciones• Repositorios académicos• Documentos de organizaciones gubernamentales

• Literatura gris• Documentos, folletos, boletines, presentaciones,

conferencias y otros tipos de materiales.

4.3.2. Repositorio de Objetos de Aprendizaje (ROA)

Son un catálogo electrónico/digital que facilita lasbúsquedas en Internet de objetos digitales para elaprendizaje. [13]. Se caracteriza porque tienen:

• Búsqueda• Recuperación/Descarga• Almacenamiento

• Publicación• Colectación

Page 64: Revista Ingenieria Vo.14 No.1

Ingeniería63Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

63

63

• Aplicaciones Multimedia

• Simulaciones• Páginas web• Blogs

• Posters, presentaciones , diapositivas, entre otros.

4.3.5. Repositorio Académico (RA)

Reúne únicamente los documentos resultantes

de la actividad académica de los miembros de una

IES, en concreto los proyectos fin de carrera, grado,

monografías, máster o doctorado.

4.4. Software para Repositorios Digitales

De acuerdo al tipo de licenciamiento, se handesarrollado aplicaciones para Repositorios,destacándose las siguientes:

1. Con licenciamiento comercial (Copyright):

Existen:• CONTENTdm [14]• Digital Commons [15]• DigiTool [16]• EQUELLA [17]• intraLibrary [18]• Open Repository [19]• VITAL [20]

Aunque tengan buenas características, entre lasdesventajas presentan están el costo por

licenciamiento. Además, de que el código fuente escerrado y con restricciones, por lo tanto no se puedenintegrar con otros sistemas de información.

Dependen de un solo proveedor en el aplicativo, y sise quiere integrar con otras soluciones informáticas,las IES deben pagar por dicha implementación.

2. Con licenciamiento Freeware:

Existe:

• Zentity de Microsoft[29]

Aunque este tipo de software sea gratis, es decir,no se pague por el licenciamiento y su uso seailimitado, la desventaja es que el código es cerrado

siendo difícil de integrar con otras solucionesinformáticas. Además que dependen de una solaplataforma tecnológica como lo puede ser el Sistema

Operativo Windows sin ser multiplataforma.

3. Con licenciamiento Código Abierto (OpenSource):

Existen:• DSpace [21]• E-Prints [22]• Fedora Commons [23]• Greenstone[24]• CDSware [25]• Connexions [26]• PlanetDR [27]• DOOR [28]

Se caracterizan porque el software está orientado alos beneficios prácticos de compartir el código, dando

a los usuarios la libertad de mejorarlos [8], además

que no contempla restricciones sobre su uso omodificación y que no se deben confundir con elsoftware de licenciamiento libre. [6][7]. Este último

grupo de licenciamiento, es el que corresponde al

enfoque del presente escrito.

5. COMPARACIÓN ENTRE LOS

PROGRAMAS PARA ROAS

DE CÓDIGO ABIERTO

El sitio Repositories Support Project (RSP) [10]realizó una encuesta sobre los once (11) repositorios

más utilizados a nivel mundial en Marzo del 2009[30]. Analizando las características fundamentales decada software incluyendo aspectos como: los tipos

de ítems que soporta, interface de usuario, validaciónde usuarios, plataformas de software,interoperabilidad, funciones de administrador, ayuda,

documentación y servicios. [30]

Figura 6 Comparación de diferentes herramientas pararepositorios. Fuente RSP [10]

De ese estudio hemos tomando como referenciaúnicamente los programas de Open Source: DSpace,

Eprints, Fedora Commons y PlanetDR,constituyéndolos en el objeto de estudio del presentedocumento. De estas herramientas nos

concentraremos únicamente en aquellas característicasque son vitales para la integración de los repositorioscon los sistemas de información ó que tiene algún

tipo de incidencia al respecto:

5.1. Validación del Usuario:

a) El registro es necesario en estas aplicaciones, es-

tando implementado de manera estándar a excep-ción de Fedora Commons que no lo contempla.

En DSpace, el usuario es el correo electrónico, y nopermite a múltiples usuarios usar la misma direc-

ción de correo electrónico. Siendo una desventajaporque un usuario se puede registrar varias vecescon cuentas de correo diferentes. El sistema provee

una característica de recordatorio de contraseña.

En cambio, con las aplicaciones de los Eprints,Fedora Commons y PlanetDR, el sistema requiere

un usuario y contraseña para registrarse, además una

Page 65: Revista Ingenieria Vo.14 No.1

Ingeniería64 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

64

64

Figura 8. Comparación de Gestoresde Bases de Datos. Fuente Forrester [56]

dirección de correo electrónico para utilizarla en caso

de que su contraseña sea olvidada. Varios usuariospueden usar la misma dirección de correo electróni-co, siendo un inconveniente porque no se puede

garantizar el acceso de un usuario único con unasola cuenta de correo única, con el agravante de su-plantación de identidad.

b) Contemplación de la utilización LDAP(Lightweight Directory Access Protocol, Proto-colo Ligero de Acceso a Directorios), que con-

siste en almacenar la información de autenticación(usuario y contraseña) para autenticarse aunque seaposible almacenar otro tipo de información (datos

de contacto del usuario, ubicación de diversos recursos de

la red, permisos, certificados, etc). La aplicación que loutiliza de manera estándar es Eprints siendo op-

cional en las otras.

c) Utilización de la autenticación Atheans (Ate-nas): Contempla un mecanismo de autenticaciónpara conceder el acceso a la información en línea de

los servicios electrónicos (recursos digitales) adquiri-dos por una IES.

d) Utilización de la autenticación Shiboleth: Esempleada para resolver las necesidades de cada or-

ganización para el intercambio de información so-bre sus usuarios de manera segura. A través de laarquitectura Shibboleth, cada aplicación solicita la

autentificación de los usuarios y los autoriza parausar funciones específicas o hacer búsquedas queutilicen recursos específicos para quienes estén au-

torizados. Esta herramienta viene incluida para serhabilitada de manera opcional en las aplicacionesde estudio.

e) No contienen módulos para facilitar la admi-nistración de usuarios y contraseñas de mane-ra automática o para importarlos de otros Sis-temas de Información: Pese a que estos sistemasinformáticos de repositorios digitales tienen bue-nas estructuras en seguridad manejando

algoritmos de encriptación de contraseñas comoMD5, no cuentan con un mecanismo que permitamigrar y/o importar los usuarios y contraseñas

que maneja un aplicación propia de la IES, y regis-trarlos dentro de las mismas aplicaciones de repo-sitorios, obligando a cada persona que se tenga

que registrar en dicho sistema, las veces que quierao sea necesario de acuerdo al número de comuni-

dades a las que desee acceder.

5.2. Plataforma Tecnológica

a) Sistema Operativo: Estas soluciones funcionande manera monoplataforma o multiplataforma. Siendo

recomendable el uso de aquellas que seanmultiplataforma, con el fin de ahorrar costos a las IES

que estén trabajando en una plataforma con un sistema

operativo específico y que no tengan inconvenientes demigración. La mayoría de sistemas informáticos pararepositorios se orientan al Sistema Operativo Windows.

Pero se recomienda que por lo menos el software seacompatible además con las plataformas Mac, GNU-Linux, y Unix y sus derivados. Ver Figura 7.

Figura 7. Comparación de SistemasOperativos más utilizados. Fuente Marketshare [55]

b) Bases de Datos (BD): Estas herramientas estánadecuadas para un tipo de base de datos específico.

En el momento de la instalación tienen una seriede scripts de creación de base de datos de acuerdoal motor de BD que soporte. Por ejemplo, MySQL,

no es soportada por DSPACE [21], a diferencia deEPrints[22], FedoraCommons[23] y PlanetDR[27]que si la contemplan. En el caso de Oracle, es sola-

mente contemplado por DSPACE[21] y EPrints[22].O el caso de PostgreSQL que la contempla soloDSpace[21] y FedoraCommons[23]. Recordando por

último, que estas no son las únicas bases de datosque existen. Ver Figura 8.

En este aspecto, es en donde se presenta la limitante

para integrarlo con los gestores de base de datosutilizados por las IES, de acuerdo a los procesosacadémicos y administrativos que manejen.

c) Lenguajes de Programación: Cada sistema deinformación se encuentra desarrollado en un len-guaje de programación específico, de acuerdo a las

necesidades suministradas por la entidad. Las IEScuentan con soluciones informáticas propias desa-rrolladas por algún lenguaje llámese: php, jsp, asp,

vbs u otro, y deben someterse al tipo de lenguajeen el que haya sido desarrollada la herramienta desoftware código libre. Ver tabla I.

92%

Total Market Share

Page 66: Revista Ingenieria Vo.14 No.1

Ingeniería65Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

65

65

e)Documentación Técnica: Todas las herramien-

tas informáticas cuentan con una documentacióntécnica básica y/o estándar. Pero ninguna profun-diza con detenimiento sobre la solución y se con-

centran en aspectos como instalación, configura-ción y administración de la solución. Además queno suministran el modelo Entidad-Relación.

f) Soporte Técnico: todas las solucionesinformáticas analizadas, tienen foro, wiki, o listade correos, y aclaran únicamente procesos de tipo

genérico, más no puntual cuando se requiere inte-grar alguna solución o mejora al respecto. Dejandoesta actividad al programador para que estudie el

código y realice las modificaciones necesarias, y en-seguida las publique, basándose en la filosofía delcódigo abierto (Open Source) [8].

6. INTEGRACIÓN DE LAS APLICA-

CIONES PARA RDs CON LOS SIs

INSTITUCIONALES DE LAS IES

Cuando se encuentran los inconvenientes antes

mencionados, las IES pierden el control de lasolución informática y no pueden realizar procesosde tipo administrativo como autorizar solo a aquellos

usuarios (administrativos, docentes, investigadores,

estudiantes, egresados) que formen parte de dichaentidad, porque el sistema permite el registro de

cualquier persona ajena a la IES, o que se encuentredesvinculada de la misma. Además, que permite laduplicidad en la información sin tener un control en

los datos básicos del usuario.

La metodología que se explica a continuación, sonel resultado del estudio, dedicación e investigación enlos conceptos de repositorios, licenciamiento, dominio

sobre las herramientas especializadas en repositorioexistentes en código abierto, programación eimplementación que se realizó en una IES que necesitó

dicha integración; las cuales no se encuentransoportadas en ninguna de las páginas oficiales derepositorios a nivel general, ni en los mismos soportes

y/o documentos técnicos suministrados por losautores de esas herramientas, con el fin de que cualquierIES los tome como referencia para implementarlos

dentro de su organización.

6.1. Pasos para integrar una aplicación de Re-

positorio con un SI propio de una IES

Como resultado de esta investigación se presentana continuación los pasos para estandarizarrepositorios multiplataforma y así poder integrar una

aplicación que utilice una IES en las áreas de Registroy Control, o Procesos Académicos de los Programas.Ver Figura 9.

Tabla I. Estadísticas de los lenguajes de programación.Fuente: Tiobe [11]

Por ejemplo, DSpace[21], PlanetDR[27] y

FedoraCommons[23], basados en tecnología Java,están desarrollados en JSP. Eprints[22], está desa-rrollado en Perl, utilizando tecnología Ajax y

Javascript.

El inconveniente se presenta, cuando el instaladory/o administrador y/o programador de la solu-

ción informática no conoce o no domina el len-guaje de programación con el cual fue desarrolladadicha aplicación, empleando una frase de cajón “eso

no se puede hacer o desarrollar o implementar.”, ocasio-nando que la IES se quede sin adecuarlo a suspropios requerimientos.

d)Servidores Web: Estos sistemas de información

están orientados a la Web y dependen del lenguajede programación con el que fueron desarrollados,destacándose Internet Information Server (IIS),

Apache, Tomcat y Jboss, entre otros.

El inconveniente se presenta únicamente paraaquellas herramientas que funcionan con tecnologíaJSP y Java, y que dependen de la compilación del

servidor Apache Ant, como es el caso deDSpace[21], cuando se realiza algún cambio en elcódigo fuente de la aplicación, presentando algunos

problemas de tipo técnico al respecto.

e)Formato de los Metadatos: Todos contemplanlos formatos Dublin Core y Qualified DC. A

excepción de FedoraCommons[23], que incluyeademás de los anteriores, los formatos METS,MARC y puede esperar cualquier otro formato. El

inconveniente se presenta en la integración con eluso de metadatos nuevos no soportados.

Page 67: Revista Ingenieria Vo.14 No.1

Ingeniería66 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

66

66

Figura 11. Ejemplo DSpace[21].Un usuario se puede registrar con diferentes correos.

Figura 12. Ejemplo DSpace[21], registro usuariosnuevos. Esta opción no se debe permitir.

Figura 9. Metodología para integrar unRepositorio Digital con un Sistema de

Información. Fuente: los autores

1. Contratar un Experto:

Es necesario contratar losservicios de undesarrollador y/o progra-

mador informático exper-to, que tenga conocimien-to y/o dominio tanto de

las aplicaciones desarrolla-das por la IES como de lasolución de repositorio a

implementar.

2. Dominio conceptos de

RD: El desarrollador y/oprogramador debe tenerclaro los conceptos de Re-

positorios y Metadatos.

3. Dominio herramienta

de RD: Se debe instalar laaplicación del repositoriodigital y conocer todo el

funcionamiento de la mis-ma. Dicha documentaciónse encuentra en la página

del autor de la herramien-ta. Si tiene dudas puederecurrir al foro del autor.

4. Modificar scripts Crea-

ción Base de Datos: To-

das las aplicaciones estudia-das cuentan con unosscripts para la creación de las

tablas que necesita el siste-ma de repositorio digital.

Si se quiere montar en unmotor de base de datos es-pecífico que la IES utilice y

que no esté soportado por

cuales siempre se encuentran en la página oficial

del respectivo motor de base de datos.

6. Desarrollar Interfaz de integración RD con

SI: Para poder automatizar la lista de usuarios consus respectivas contraseñas, así como las cuentasde correo electrónico que tenga la IES, en cualquie-

ra de sus respectivos sistemas de información, esnecesario realizar un programa (o interfaz) en ellenguaje de programación original en el que este

desarrollada la aplicación de la IES que contenga lainformación que se va a migrar, sin olvidar el usode la instrucción MD5 para encriptar las claves.

Por ejemplo DSpace, está desarrollado en Java, yla aplicación de la IES está en PHP. El

desarrollador puede utilizar las instruccionespg_connect y sus derivados, para conectarse des-de la aplicación de la IES a la tabla e-person de la

base de datos PostgreSQL de DSpace y alimentarla información en la tabla de usuarios y contrase-ñas. Ver figura 10.

7. Interfaz permita validar usuarios existentes:

La interfaz a desarrollar debe validar que no se

duplique la cuenta de correo y que sólo se utiliceuna vez. Ver Figura 11.

Figura 10. Tabla de usuariosde DSpace[21]

dicha aplicación de repositorio, se debe buscar un

archivo con extensión .sql en donde figure la sen-tencia Create Database y Create Table, y modificar-lo de acuerdo al motor deseado. Estos scripts ma-

nejan la creación de campos consecutivos o

autonuméricos que se definen de ma-

nera diferente según el estándar ANSIde SQL que contempla cada gestor debase de datos. Para adecuarlo a un mo-

tor de base de datos como MicrosoftSQL Server, se debe utilizar el lenguajeTransact-SQL, y modificarlo en su tota-

lidad, debido a que su estructura escompletamente diferente.

5. Instalar Drivers del Gestor de BD:

Se deben buscar los drivers del gestorde base de datos a adecuar en elaplicativo del repositorio digital, los

8. Comentariar Creación de Usuarios en el RD:

En vista a que el código fuente de la aplicación delrepositorio se puede modificar, se debe inhabili-tar las opciones de registro nuevo de usuarios,

colocándole comentarios. Ver Figura 12.

9. Recompilar RD: En el caso de DSpace, se debecompilar los cambios realizados con Apache Ant yApache Maven. Con las otras soluciones informáticas

no es necesario este paso. Ver Figura 13.

10. Estudio Metadatos e Inclusión: Para poder

incorporar nuevos estándares de metadatos den-tro de la aplicación del repositorio no reflejados,se debe estudiar dichos formatos y adicionar las

Page 68: Revista Ingenieria Vo.14 No.1

Ingeniería67Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

67

67

respectivas líneas de código en los archivos del

código fuente de la aplicación. Ver Figura No 14.

Aunque DSpace sea la aplicación de más alta difusión

en repositorios digitales incluso hasta por la mismacomunidad, las otras soluciones de código abiertotambién son funcionales y se pueden adecuar, mejorar

y personalizar de acuerdo a las necesidades de una IES.

Las herramientas repositorios digitales de códigoabierto no tienen nada que envidiarle a las de licencia

propietaria, ofreciendo mejores componentes para laimplementación de repositorios digitales de acuerdoa las necesidades que tenga la IES. Además que

contribuyen de manera significativa en la Gestión delConocimiento.

En cuanto a la producción intelectual, existendiferencias en cuanto a dejarlas en copyright (propias

para la IES) o en Creative Commons (conocimientocompartido), análisis que sólo le compete a la IES.

Las IES que no adopten este modelo, van a quedarobsoletas dentro de sus procesos administrativos y

académicos frente a la comunidad académica; además,que el MEN está exigiendo producción intelectual alas IES y ésta es una de las formas de realizarlo por

medio del uso de los repositorios digitales.

REFERENCIAS BIBLIOGRÁFICAS[1] Gestión del Conocimiento http://www.gestiondelconocimiento.com

[2] PRESSMAN, Roger S. INGENIERIA DE SOFTWARE. Un enfoquepractico. Sexta Edicion.2005. Editorial Mc Graw Hill

[3] MICROSOFT. Encarta 2009.

[4] WIKIPEDIA. http://www.wikipedia.org

[5] Ministerio de Educación Nacional – www.mineducacion.gov.co

[6] STALLMAN,Richard. GNU Operating System http://www.gnu.org/philosophy/free-sw.es.html

[7] STALLMAN,Richard. Free Software Foundation (FSF) http://www.fsf.org

[8] RAYMOND,Eric, Open Source http://www.opensource.org

[9] World Wide Web Consortium (W3C) http://w3c.org

[10] Repositories Support Project http://www.rsp.ac.uk . Estadísticasde Repositorios http://www.rsp.ac.uk/software/surveyresults

[11] Tiobe. Estadísticas sobre lenguajes de programación http://www.tiobe.com

[12] Colombia Aprende. http://www.colombiaaprende.edu.co

[13] López, C. (2005) Los Repositorios de Objetos de Aprendizaje comosoporte a un entorno e-learning, Tesina doctoral, Universidad deSalamanca. (Director Francisco José García Peñalvo). Disponibleen: http://www.biblioweb.dgsca.unam.mx/libros/repositorios/

[14] CONTENTdm http://www.oclc.org/contentdm

[15] DigitalCommons http://www.bepress.com/

[16] DigiTool http://www.exlibrisgroup.com/category/DigiToolOverview

[17] EQUELLAhttp://www.equella.com

[18] IntraLibrary http://www.intralibrary.com/

[19] Open Repository http://www.openrepository.com/

[20] VITAL http://www.vtls.com/products/vital

[21] DSpace, http://www.dspace.org/

[22] Eprints Repository. http://www.eprints.org/

[23] Fedora Commons- http://www.fedora-commons.org/

[24] Greenstone. http://www.greenstone.org/

Figura 13. Ejemplo DSpace[21], utilización apache ant.

Figura 14. Ejemplo DSpace, utilización metadatos.

11. Servidor Web debe ser multiplataforma: Es-tas aplicaciones están desarrolladas para ejecutar-se en un servidor Web multiplataforma. A ex-

cepción del Internet Information Server deMicrosoft, en donde lo único que se puede con-figurar son las extensiones de PHP, pero para JSPno se podrían integrar porque requiere de la má-

quina virtual de Java.

12. Cambiar iconografía y diseño del RD: En

cuanto al diseño y la iconografía con que vienenestas herramientas informáticas, éstas se puedencambiar y personalizar según los diseños y los

colores corporativos que utilice la IES, formatoque viene en jpg y png, y se encuentran ubicadasen una carpeta predeterminada de imágenes.

13. Cambiar Hojas de Estilo (CSS): De igual for-ma, se pueden cambiar las hojas de estilo en cas-

cada (Cascade Style Sheet) que vienen con exten-sión .css, cambiando los formatos de los fon-dos, los tipos de letras, colores, enlaces y demás

cambios que considere indispensable la IES apli-car de acuerdo a su imagen corporativa.

Realizando los pasos mencionados se puedeintegrar cualquier solución propia que tenga la IEScon las aplicaciones de repositorios digitales.

CONCLUSIONES

Los pasos para realizar los cambios de integracióny migración de información, garantizan que cualquier

solución informática propia de la IES se integre conlas aplicaciones para repositorios digitales. Ademásque se puede mejorar el acceso a la aplicación

impidiendo que personas no autorizadas a la IES seregistren dentro del sistema.

Para realizar cualquier cambio y/o ajuste, se

requieren conocimientos avanzados de programacióny de conceptualización en repositorios y metadatos.

Page 69: Revista Ingenieria Vo.14 No.1

Ingeniería68 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

68

68

[52] SciELO- Scientific Electronic Library Online). http://www.scielo.org

[53] López, C. (2005) Los Repositorios de Objetos de Aprendizajecomo soporte a un entorno e-learning, Tesina doctoral, Univer-sidad de Salamanca. (Director Francisco José García Peñalvo)http://www.biblioweb.dgsca.unam.mx/libros/repositorios/

[54] OAI. The Open Archives Initiative Protocol for MetadataHarvesting. http://www.openarchives.org/OAI/openarchivesprotocol.html

[55] Marketshare. Comparación en Sistemas Operativos. http://marketshare.hitslink.com/

[56] Forrester. www.forrester.com. Comparación de Gestores deBases de Datos. http://www.microsoft.com/presspass/itanalyst/docs/06-30 09 Enterprise Database Management Systems.PDF

[57] FRANGANILLO, JORGE. Depósitos: un factor psicológico de des-confianza. Textos universitaris de biblioteconomia idocumentació. número 20, juny de 2008. Facultat deBiblioteconomia i Documentació. Universitat de Barcelona, Es-paña. http://www.ub.es/bid/pdf/20frang2.pdf

[58] Diccionario Collins universal: español-inglés, inglés-español(2005). Barcelona: Grijalbo.

[59] Keefer, Alice (2007). “Los repositorios digitales universitarios ylos autores”. Anales de documentación, núm. 10, p. 205–214.http://www.um.es/fccd/anales/ad10/ad1011.pdf.

Luís Eduardo Cano OliveraIngeniero de Sistemas de la Universidad Autónoma de Colombia.Especialista en Diseño y Construcción de Soluciones Telemáticas de

la Universidad Autónoma de Colombia. Candidato a Magíster en

Ciencias de la Información y las Comunicaciones con énfasis en Sis-

temas de Información, de la Universidad Distrital Francisco José deCaldas. Doctorando en Informática de la Universidad Pontificia de

Salamanca de España. Docente Universitario. Miembro del Grupo de

Investigación GICOGE de la Universidad Distrital Francisco José de

Caldas y de la línea de trabajo en Geosensores del mismo grupo deinvestigación. http://gicoge.udistrital.edu.co/geosensores.

[email protected]

Pedro Enrique Espitia ZambranoDiseñador Gráfico, Universidad Jorge Tadeo Lozano. Especialista

en Comunicación de Cultura Científica del CAEU. Editor Senior de

Publicaciones Científicas Gaia. Presidente de la Fundación FASARTE,

y director del Museo de Arte Vial. Asesor de Greennmax e-tecnology.Consultor en Branding del Tecnológico de Monterrey sede Colom-

bia. Doctorando en Informática de la Universidad Pontificia de

Salamanca de España. Miembro del grupo de Investigación en Trá-

fico Inteligente y Seguridad Ciudadana de la Universidad DistritalFrancisco José de Caldas. [email protected]

José Nelson Pérez CastilloPhD. en Informática Universidad de Oviedo. Profesor Facultad deIngeniería de la Universidad Distrital Francisco José de Caldas.

Magíster en Teleinformática Universidad Distrital Francisco José de

Caldas. Especialista en Sistemas de Información Geográfica y

Teledetección Espacial Universidad de Henares. Investigador Princi-pal Grupo GICOGE. [email protected]

Luis Joyanes AguilarPhD. en Informática de la Universidad de Oviedo. Doctor en CienciasPolíticas y Sociología de la Universidad Pontifica de Salamanca

campus de Madrid. Licenciado en Ciencias Físicas de la Universidad

Complutense de Madrid. Licenciado en Enseñanza Superior Militar

de la Academia Militar de Zaragoza. Profesor Titular Agregado deCátedra de Lenguajes y Sistemas Informáticos de la Facultad de In-

formática de la Universidad Pontificia de Salamanca campus Madrid,

donde también se desempeñó como: Decano de la Facultad de Infor-

mática, Director de Doctorado, Director de Masters y Director delDepartamento de Lenguajes, Sistemas Informáticos e Ingeniería de

Software. Miembro del grupo GICOGE. Autor de más de 40 libros de

Informática y numerosos artículos en revistas y congresos internacio-

nales.

[25] CERN Document Server Software (CDSware) http://cdsware.cern.ch/

[26] Connexions http://cnx.org/

[27] PlanetDR http://planet.urv.es/planetdr/

[28] DOOR (Digital Open Object Repository) http://door.sourceforge.net/

[29] Zentity http://research.microsoft.com/en-us/projects/zentity/

[30] RSP. Estudio Comparación entre Respositorios. Marzo 2009.http://www.rsp.ac.uk/software/surveyresults

[31] OMPI (ORGANIZACIÓN MUNDIAL DE LA PROPIEDAD INTELEC-TUAL)-Sistemas automatizados de gestión de derechos y limita-ciones y excepciones al derecho de autor. Ginebra. Abril-2006

[32] Castro Martín, Pablo de. Estadísticas de uso de repositoriosinstitucionales: ¿un indicador fiable de comparación? Diciem-bre 2008, Universidad Complutense de Madrid, Madrid. http://eprints.ucm.es/8499/

[33] DRIVER (Digital Repository Infrastructure Vision for EuropeanResearch). Directrices DRIVER 2.0. para proveedores de conte-nido - exposición de recursos textuales con el protocolo OAI-PMH . Noviembre 2008. http://www.driver-support.eu/documents/DRIVER_2_1_Guidelines_Spanish.pdf

[34] REAL ACADEMICA ESPAÑOLA. Diccionario de la Lengua Espa-ñola. http://buscon.rae.es/draeI/

[35] Opendoar. Directorio de Repositorios de Acceso Abierto http://www.opendoar.org/

[36] Corporación Universitaria Lasallista. http://www.lasallista.edu.co/. 1. Biblioteca Digital Lasallista (BIDILA). http://www.lasallistavirtual.edu.co:81/dspace/

[37] Corporación Universitaria Minuto de Dios. http://www.uniminuto.edu/. 1. Colecciones Digitales Uniminuto. http://dspace.uniminuto.edu:8000/dspace/

[38] e-medicina fetal - http://e-medicinafetal.org/. 1. Digital Repositoryin Fetal Medicine (DRFM. http://digitalrepository.e-medicinafetal.org/

[39] Instituto Interamericano de Cooperación para la Agricultura IICAoficina en Colombia. http://www.iica.int/colombia. 1. Centro Vir-tual de Informacion CVI IICA oficina en Colombia.http://zeus.iica.ac.cr:8090/dspace/

[40] Universidad Autónoma de Occidente - http://www.uao.edu.co/. 1.Biblioteca Digital - Autonoma Virtual. http://bohr.cuao.edu.co/dspace/

[41] Universidad de Antioquia (UdeA) - http://www.udea.edu.co/. 1.Biblioteca Digital del Sistema de Bibliotecas de la Universidadde Antioquia. http://tesis.udea.edu.co/dspace/

[42] Universidad de la Salle - http://unisalle.lasalle.edu.co/. 1. TEGRA.http://tegra.lasalle.edu.co/dspace/

[43] Universidad de los Andes - http://www.uniandes.edu.co/1.DSpace de Universidad de los Andes.http://dspace.uniandes.edu.co:5050/dspace/

[44] Universidad del Rosario - http://www.urosario.edu.co/. 1.edocUR.http://repository.urosario.edu.co/

[45] Universidad Icesi - http://www.icesi.edu.co/. 1. Biblioteca Digital- Universidad Icesi.http://bibliotecadigital.icesi.edu.co/. 2. Repo-sitorio Académico - Universidad Icesi. http://repositorioacademico.icesi.edu.co/repositorio_academico/

[46] Universidad Nacional de Colombia - http://www.unal.edu.co/ 1.Scientific Electronic Library Online - Colombia (SciELO - Colom-bia). http://www.scielo.org.co/. 2. Universidad Nacional De Colom-bia - Repositorio Institucional UN. http://www.digital.unal.edu.co/

[47] Universidad Nacional Abierta y a Distancia (UNAD). http://www.unad.edu.co. Tiene en proceso de implementación variosrepositorios en DSPACE. http://www.unad.edu.co/index.php?option=com_content&view=category&id=178&Itemid=938

[48] LYNCH, Clifford A. Institutional Repositories: EssentialInfrastructure For Scholarship In The Digital Age portal: Librariesand the Academy - Volume 3, Number 2, April 2003, pp. 327-336

[49] BARTON, Mary. WATERS, Margaret. Cómo crear un RepositorioInstitucional. MIT Libraries..2004-2005 http://www.recolecta.net/buscador/documentos/mit.pdf

[50] SPARC (The Scholarly Publishing & Academic ResourcesCoalition) http://www.arl.org/sparc/

[51] ROAR. Registry of Open Access Repositories - http://roar.eprints.org/

Page 70: Revista Ingenieria Vo.14 No.1

Ingeniería69Vol.14 No.1REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

69

69

Ingeniería

RE

VIS

TA

Ingeniería

RE

VIS

TA

ÁREAS DE PUBLICACIÓN

• Comunicaciones y Televisión

• Telecomunicaciones –Teleinformática

• Instrumentación, Control y Automatización

• Electrónica de Potencia

• Dispositivos y Circuitos Electrónicos (FPGA, ASIC).

• Procesamiento de señales e imágenes

• Microelectrónica, Optoelectrónica y Fotónica

• Bioingeniería

• Tiempo Real

• Ingeniería de Software y Simulación

• Inteligencia Artificial, Sistemas Expertos y Robótica

• Gestión Informática• Investigación de Operaciones

• Producción

• Logística

• Seguridad y Salud Ocupacional

• Geomática

• Catastro y Sistemas de Información Geográfica

REVISTA

Suscripción y factura a nombre de:

Dirección de envío:

País: Tel. Residencia: Tel. Oficina:

Suscripción a partir del número: Fecha:

CUPÓN DE SUSCRIPCIÓN

SISTEMA DE PAGO: EfectivoCheque

Cheque No.

Banco

Ciudad

Publicación admitida en el Índice Nacional de PublicacionesSeriadas Científicas y Tecnológicas de Colciencias

Circulación nacional e internacional ISSN 0121-750X

Valor suscripción(2 Números)Colombia ....... $20.000Exterior .......... US 25

• Todo pago se hace a nombre de la Universidad Distrital Francisco José de Caldas.

• Para su comodidad, usted puede consignar el valor de la suscripción en la Cuenta Nacional No.230053548 del Banco de Occidente en cualquier oficina del país, a nombre de la Universidad Distrital.Si usted paga por este sistema debe enviar una copia del recibo de consignación junto con el cupón

de suscripción.

CORRESPONDENCIA, CANJE Y SUSCRIPCIONES:Revista Ingeniería – Facultad de IngenieríaCarrera 7 No. 40-53 Decanatura de IngenieríaTel. 571 + 3239300 - 571 + 4822061, Bogotá, D.C. - Colombia

Page 71: Revista Ingenieria Vo.14 No.1

Ingeniería70 Vol.14 No.1

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

70

70

REVISTAPublicación admitida en el Índice Nacional de Publicaciones

Seriadas Científicas y Tecnológicas de ColcienciasCirculación nacional e internacional ISSN 0121-750X

Editada e impresa en Colombia por:

Grupo Editorial Gaia

desde 1.996