revista sirio fusm

53

Upload: san-martin-fusm

Post on 15-Mar-2016

229 views

Category:

Documents


6 download

DESCRIPTION

Revista SIRIO FUSM

TRANSCRIPT

Page 1: Revista SIRIO FUSM
Page 2: Revista SIRIO FUSM
Page 3: Revista SIRIO FUSM

Editorial Ing. Hans Igor López Chávez Coordinador de Investigación Facultad de Ingeniería FUSM Ambiente de Negociación Automática en el Ámbito del Comercio Electrónico Asistida por Agentes Inteligentes de Software. Fabián Giraldo, Docente Investigador, Ingeniería de Sistemas. Kevin Novoa, Diego Bonilla, Estudiantes, Ingeniería de Sistemas. Análisis Exploratorio de las Microempresas de Reciclaje en Bogotá. Diego Suero, Samuel Alfonso, Johanna Bocanegra, Jefferson Palencia, Alejandra Sanabria. Redes 4G, una evolución de las redes Ad Hoc Móviles Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones.

Aplicación de Metaheurísticas para Secuenciación de Máquinas en el Modelo Básico. Fabián Giraldo, Docente Investigador, Ingeniería de sistemas. Modelo Conceptual para el Transporte en Bicicleta de la Ciudad de Bogotá. Diego F. Suero, Docente Investigador, Ingeniería Industrial. Usando UML en el diseño de sistemas digitales Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones.

Diagnóstico de la reforma agraria dirigida al incremento de la producción de maíz amarillo en Colombia desde el año 2002 hasta el 2006 y propuesta de medidas alternativas hacia el futuro. Adolfo E. Chávarri , Egresado, Ingeniería Industrial. Compresión y Transmisión de Imágenes Ecográficas. Eliana M. García, Juan D. Prieto, Egresados, Ingeniería Electrónica y Telecomunicaciones.

5 7 15 19 23 33 35 41 45

Page 4: Revista SIRIO FUSM
Page 5: Revista SIRIO FUSM
Page 6: Revista SIRIO FUSM
Page 7: Revista SIRIO FUSM

Resumen—El comercio electrónico se ha convertido en un desafío de negocios debido a su funcionalidad, sin embargo fases como: la búsqueda y selección de productos, búsqueda y selección del vendedor y los mecanismos de negociación en ambientes web (elementos importantes en el modelo de compra del consumidor), son tareas bastante manuales. En la actualidad, un usuario que desea adquirir un producto debe visitar en muchas ocasiones decenas de tiendas virtuales, para terminar en muchas ocasiones desistiendo de adquirir el bien deseado.

El comercio electrónico ofrece muchas más oportunidades para mejorar la forma en que los negocios o empresas interaccionan con sus clientes. El objetivo es aprovechar el potencial real que puede proporcionar un entorno electrónico, dar un paso más, e introducir en los sistemas, procesos de negociación automática.

La negociación automática puede permitir la comparación a gran escala de productos con un gran número de características, abaratar costos, ofrecer servicios mas personalizados, y dotar de mayor agilidad a las transacciones. Dada la naturaleza de las tareas implicadas en el comercio electrónico, la tecnología de agentes puede jugar un papel muy importante, donde los agentes actuaran como compradores, vendedores, mediadores, proveedores de información; en definitiva, los agentes automatizarán una parte o todas las tareas necesarias en los procesos de transacciones comerciales [1].

La idea del presente trabajo es presentar la implementación de un sistema multiagente Web implantado en la plataforma JADE, que resuelve algunas fases del modelo de negociación automática.

Palabras Claves—Comercio electrónico, negociación automática,

Sistemas multiagentes, JADE, FIPA, Ontologías.

I. INTRODUCCION

L comercio electrónico se ha convertido en un desafío de

negocios debido a su funcionalidad, los clientes pueden llegar

a una e-tienda en cualquier momento, ir de compras y llenar un

carro completo; incluso, salir de la tienda sin necesidad de

comprar nada. Por lo tanto, atraer clientes y persuadirlos para

comprar no es una tarea fácil. Se ha convertido en uno de los

temas más importantes en los últimos años.

Los clientes generalmente tienen conocimiento sobre los

productos o servicios que satisfacen sus necesidades,

adicionalmente están conformes con esta nueva forma de realizar

negocios, mientras que los vendedores están felices de vender

sus productos o servicios por este medio.

Por lo tanto, el comercio electrónico se convierte en una

estrategia destacada. Algunos clientes comparan los precios de

un mismo producto procedentes de varias tiendas antes de tomar

la decisión de compra.

En la forma tradicional los usuarios visitan establecimientos

comerciales y van comparando tienda a tienda, lo cual involucra

mucho tiempo. El mercado electrónico ofrece más ventajas a los

clientes, estos pueden entrar en línea y buscar los productos

requeridos; sin embargo, no es tan fácil para el cliente satisfacer

sus necesidades debido a las miles de opciones que se pueden

encontrar en un sitio Web.

Un agente de software se puede emplear en este punto debido

a sus propiedades de autonomía, capacidad de negociación,

reactividad y proactividad [2].

La idea básica es diseñar e implementar plataformas de

negociación que permitan a agentes de software automatizar

algunas fases del modelo de comportamiento de compra, a saber:

gestión de búsqueda y selección del producto, gestión de

búsqueda del vendedor, y la negociación automática [3].

La fase de negociación automática no se identifica

normalmente, sin embargo constituye un importante desafio en el

ámbito del comercio electrónico mediado por agentes. En

negociaciones humanas, dos o mas partes interaccionan entre

ellas para determinar el precio o algún otro término de la

transacción. En una negociación automática, son los agentes de

software los que llevan a cabo procesos similares para llegar al

mismo fin. Básicamente lo que se hace es preparar ofertas que se

envían a los otros agentes implicados, y analizar las ofertas que

se reciben con el objetivo de conseguir el máximo beneficio, para

el usuario que representan. Estas tareas se desarrollan conforme

a una estrategia de negociación, que estará acotada por el

protocolo de negociación establecido. Este protocolo define las

reglas de encuentro entre los agentes, es decir quien puede decir

qué, a quién y en qué momento. Dada la extensa variedad de

posibilidades, no existe una aproximación o técnica universal para

el problema de la negociación automática. En su lugar, los

protocolos y las estrategias tienen que adaptarse en función de

las diferentes situaciones o escenarios que se plantean [3].

Fabián Giraldo, Docente Investigador, Kevin Novoa, Diego Bonilla, Estudiantes, Ingeniería de Sistemas.

E

Ambiente de Negociación Automática en el Ámbito del Comercio Electrónico Asistida por Agentes Inteligentes

de Software

Page 8: Revista SIRIO FUSM

El presente trabajo pretende ilustrar un sistema Multiagente en

ambiente Web implantado en la plataforma JADE, que trata de

automatizar las fases de comportamiento de compra. En la fase

de gestión de búsqueda y selección del producto, los agentes

razonarán sobre una ontología de servicios predeterminada, la

cual es utilizada por los establecimientos comerciales para

describir los productos que comercializan. Adicionalmente se

dotará a las tiendas de comercio electrónico de sistemas

inteligentes, como: sistemas de recomendación basada en

técnicas de filtrado colaborativo, y sistemas de suscripción, con el

fin de ofrecer productos y servicios de interés para un usuario

automáticamente.

En la fase de selección de los vendedores, se tendrá un

módulo de decisiones que permite elegir los mejores agentes de

venta, basados en las características de los productos que ofertan

los establecimientos comerciales.

En la fase de negociación se considera en primera instancia el

protocolo de coordinación FIPA Contract-NET, que permite a

agentes de compra solicitar ofertas a los agentes de venta sobre

productos de interés.

El escenario básico que se puede considerar es aquel en el

que existen agentes de compra implementados en plataforma

JADE que son configurados por un cliente particular a través de

una aplicación web y cuya tarea básica es buscar, seleccionar y

establecer una negociación con agentes de ventas (Representan

establecimientos comerciales) que ofrezcan productos que suplan

sus necesidades de su cliente.

II. TRABAJOS RELACIONADOS

A. Intelligent AuctionBot for Forward and Reverse English Auction

Mohammad Zahidur Rahman, Mohammad Fozlul Haque

Bhuiyan y Nur Afroza Khurshed, de la Universidad de

Jahangirnagar Bangladesh, proponen un AuctionBot Inteligente,

basado en un sistema de subasta inglesa donde las pujas pueden

ser realizadas tanto por agente de software como por agentes

humanos.

Presentan dos estrategias de funcionamiento parametrizables.

La primera, una subasta inglesa hacia delante, en la cual un

vendedor publica un ítem o un grupo de ítems y los compradores

realizan las ofertas durante un tiempo especificado por el

vendedor, gana la oferta más alta antes del tiempo de expiración.

Y la segunda, una subasta inglesa inversa, en la cual los

compradores publican un requerimiento de compra de un ítem o

un grupo de ítems. Los vendedores realizan ofertas hasta que el

tiempo especificado por el comprador expira, gana la oferta más

baja.

El diseño arquitectónico de AuctionBot, presenta dos

elementos: una interfaz Web para seres humanos y una interfaz

TCP-IP para agentes de software. La interfaz y el programa de

subasta actualizan un sistema de bases de datos centralizado.

Los agentes humanos o usuarios del sistema inicializan una

subasta configurando una serie de formularios Web, los agentes

de software realizan la configuración en una interfaz específica

para agentes. El formulario final de datos y el programa de la

subasta es insertada en la base de datos y es marcada como no

procesada hasta que el usuario envía una confirmación de los

datos configurados.

El proceso de negociación es controlado por un demonio que

está supervisando constantemente la base de datos y registra los

eventos de cada una de las subastas, para estar informando a los

usuarios propietarios. Entre los parámetros solicitados por la

interfaz de AuctionBot se encuentran: el ítem que se va a adquirir

o comprar, el tipo de subasta (inversa ó hacia adelante), el

propietario de la subasta, la categoría, la hora de inicio, la hora de

fin, la oferta mínima o máxima aceptada, número de ofertas a

realizar, formas de pago, opciones de compra, localización

geográfica en la cual aplica la subasta y términos de envio.

Entre sus desarrollos futuros planean desarrollar mecanismos

para soportar la participación de usuarios registrados en una

plataforma Web en subastas simultáneas, y de las cuales pueden

conocer su evolución a través del propio portal [4].

B. Model of Multi-Agent Based on Personalized Transactions in Electronic Commerce

CHEN Xiao-fang, WANG Ying, de la universidad School of

management, WuHan University of Technology, P.R.China,

realizan un estudio de diferentes patrones de evolución, en

sistemas de comercio electrónico, tales como: Cliente –

Vendedor, en el cual los clientes adquieren el bien realizando el

contrato directo con el vendedor; el patrón Cliente –

Supermercado – Vendedor, en el cual existe un intermediario

encargado de comercializar diferentes productos de los

vendedores, en los cuales el cliente realiza la negociación con el

supermercado y este a su vez se encarga de realizar la

negociación con los vendedores; y el patrón Cliente - Agencia

Web – Vendedor, en el cual existen agencias Web que se

encargan de realizar subastas de productos de vendedores de

acuerdo a la configuración realizada por estos últimos y los

compradores realizar pujas sobres los productos publicados.

Basados en el estudio de estos patrones y del análisis de las

características de los consumidores y compradores, concluyen

que es necesario automatizar los procesos de compra y venta de

productos y proponen un modelo de sistemas multiagente basado

en la personalización de las transacciones electrónicas, utilizando

las plataformas JADE y JESS. Se busca entonces, realizar un

modelo en el cual los compradores tengan agentes de compra

configurables (en producto, precio, método de pago), los

vendedores tengan agentes vendedores configurables (en lista de

productos , características de los productos: precio, método de

pago) y exista una agencia de agencias con un arquitectura que

soporte tecnologías de la Web semántica donde se puedan

realizar encuentros de agentes y negociaciones automáticas en

las cuales se pueda llevar control sobre los contratos y el pago de

los productos.

Adicionalmente proponen la incorporación de una red neuronal

bayesiana encargada de analizar todas las transacciones

electrónicas, con el fin de buscar patrones de comportamiento de

los consumidores para así tener un sistema de soporte a

decisiones para futuras compras [5].

Page 9: Revista SIRIO FUSM

C. GAMA (Genetic Algorithm driven Multi-Agents) for E-Commerce Integrative Negotiation

Dr. Magda B. Fayek, Dr. Ihab A. Talkhan, Khalil S. (El-Masry de

Cairo Univ. Faculty of Eng) proponen GAMA, un agente

intermediario de compra que permite a los compradores

considerar un amplio número de propuestas de comerciantes

antes de tomar decisiones de compra. El sistema ayuda a los

compradores en dos elementos importantes: búsqueda de

productos y negociación. La búsqueda de productos es realizada

por agentes de compra, utilizando como base un algoritmo

genérico que direcciona el espacio de búsqueda, basada en los

mejores productos ofrecidos y considerando los criterios

especificados por los compradores. En primera instancia crea una

población inicial aleatoria de individuos, cada individuo representa

un producto específico ofrecido y cada gen representa un atributo

de los diferentes ítems a considerar en el producto.

El fitness es calculado basado en criterios de satisfacción del

cliente, configurados por el usuario utilizando la teoría de utilidad

multicriterio. La selección, el cruce y la mutación son aplicados a

la población para evolucionar a la siguiente generación.

La negociación es implementada usando la técnica de

algoritmos genéticos colaborativos. El protocolo de negociación

está basado en la comparación de ítems idénticos. Cada ítem es

un producto a ser vendido. Adicionalmente cada ítem tiene un

nombre y una lista de atributos, cada atributo tiene un nombre y

un indicador de pesos relativo y un peso relativo al criterio

especificado por el comprador. El agente de ventas de GAMA

mantiene una lista local de precios junto con una lista de

productos élites para ofrecer, caracterizado por cada uno de sus

atributos [6].

D. Kasbat: An agent MarketPlace for Buying and Selling Goods

Authony Chevez, Pattie Maes del MIT Media Lab. Proponen

Kashbat, un sistema multiagente para el comercio electrónico

implantado sobre la Web, donde los usuarios pueden configurar y

parametrizar agentes autónomos para restringir su operación en

acciones de compra y venta de productos. Kashbat fue

desarrollado en CLOS (Common Lisp Object System) usando

Harlequin Lisp e incorpora una plataforma de negociación que

permite el encuentro entre agentes compradores y vendedores.

Los agentes de compra son agentes proactivos; básicamente

ellos toman la iniciativa y buscan en la plataforma de negociación,

agentes que vendan los productos solicitados por los usuarios que

representan. Uno de los elementos importantes de la plataforma

es que el usuario es el que tiene el control sobre las estrategias

de negociación de los agentes. El usuario puede especificar una

función de decadencia, esto con el fin de guiar al agente sobre el

mecanismo para bajar el precio ofertado sobre determinado bien.

También puede escoger entre tres opciones de negociación:

lineal, cuadrática y cúbica. Agentes más sofisticados podrían

tener diferentes parámetros para definir sus estrategias de

negociación [7].

E. Agent-based Price Negotiation System for Electronic Commerce

Jinkai Wang y Youlin Chen, de Tongji University, desarrollaron

un Agente de negociación basado en precio para un sistema de

comercio electrónico. Los autores proponen un framework para el

desarrollo de agentes cuya función es la realización de

negociaciones automáticas basada en precio y un modelo de

negociación utilizando técnicas de teoría de juegos.

La arquitectura del sistema se centra en la estructuración de un

sistema multiagente, con una definición de tareas para cada uno

de los agentes que conforman el sistema, los cuales son: interfaz,

cognitivo, de estudio y de procesamiento. El de interfaz se

encarga de obtener la información de los productos requeridos por

los clientes, mientras que el agente cognitivo, toma dicha

información y envía la información clasificada a los agentes de

estudio y agentes procesamiento.

Los agentes de estudio son los encargados de garantizar que

los productos y las tareas designadas por los usuarios se

cumplan, para lo cual realizan una descomposición y una

administración de las mismas, con el fin de conocer si debe

delegar responsabilidades a otros agentes del sistema. El agente

procesador combina la información transferida por el agente de

estudio y el agente cognitivo con una librería de modelos que

permite procesar toda la información y determinar si se pueden

cumplir los objetivos establecidos.

Para la comunicación de los agentes proponen el diseño de un

protocolo de comunicación propio, básicamente son cadenas de

texto con una forma preestablecida.

El proceso de negociación realizado se basa en la aplicación

de los conceptos básicos de la teoría de juegos cooperativo; en

los cuales, un grupo de actores colisionan para establecer un

acuerdo sobre la compra de un producto [8].

III. MARCO CONCEPTUAL

A. Sistemas multiagentes

Un sistema multi-agente es un conjunto de entidades

inteligentes, llamadas agentes, generalmente heterogéneos y

potencialmente independientes que coordinan y trabajan en

común resolviendo problemas individuales o globales.

Aunque no existe una definición universalmente aceptada de

agente, para el caso del presente trabajo se puede considerar

como una aplicación informática que tiene capacidades para:

hacer parte de una organización social, utilizar estrategias de

coordinación y cooperación para el logro de objetivos

compartidos, y utilizar estrategias de negociación inteligente.

Existen muchas plataformas para el desarrollo de aplicaciones

multiagentes, siendo JADE (Java Agent Development) una de las

más utilizadas.

JADE es una estructura software que simplifica el desarrollo de

sistemas multiagentes de acuerdo con las especificaciones FIPA

para la interoperabilidad de sistemas de agentes inteligentes. Es

un software libre y de código abierto, que ha sido desarrollado por

el CSELT del grupo Telecom Italia, en parte del proyecto de

Page 10: Revista SIRIO FUSM

investigación europeo ACTS AC17 ―FACTS‖. Tanto JADE, como

los agentes que el usuario define para una aplicación específica,

utilizan el lenguaje de desarrollo JAVA, lo que aporta a la

plataforma una total independencia del sistema o sistemas

operativos empleados.

La plataforma de agentes puede estar distribuida entre distintas

máquinas y su configuración puede ser cambiada en cualquier

momento, ya que JADE permite la movilidad y clonación de

agentes de una máquina a otra. JADE, siguiendo las

especificaciones FIPA, implementa aquellos aspectos de un

sistema multi-agente, que no son particularidades internas del

agente y son independientes del tipo de aplicación [9].

Los protocolos FIPA, definen los actos comunicativos y las

reglas de coordinación que deben seguir para utilizar la

interoperabilidad de agentes. Entre los protocolos FIPA se pueden

nombrar FIPA-ContracNet y FIPA suscription, que son utilizados

en plataforma.

El conjunto de clases ContractNet permite implementar el

protocolo FIPA-Contract-Net. Este protocolo de interacción

permite al Iniciador enviar una solicitud de propuesta (Call for

Proposal) a un conjunto de Respondedores, evaluar sus

proposiciones y después aceptar la preferida de todas (o incluso

rechazarlas todas). Este protocolo de interacción está

profundamente descrito en las especificaciones FIPA.

El Iniciador solicita propuestas de otros agentes enviando un

mensaje CFP que especifica la acción a llevar a cabo y, en caso

de ser necesario, condiciones sobre la ejecución. Los

Respondedores pueden entonces responder enviando un

mensaje PROPOSE incluyendo las precondiciones que

prepararon para la acción, por ejemplo, el precio o el tiempo.

Alternativamente, los Respondedores pueden enviar un mensaje

REFUSE para rechazar la propuesta o, eventualmente, un NOT-

UNDERSTOOD para informar de problemas de comunicación. El

iniciador puede entonces evaluar todas las propuestas recibidas y

hacer su elección de qué proposición de agente será escogida y

cuál rechazada. Una vez que los Respondedores cuya

proposición ha sido aceptada (por ejemplo, aquellos que han

recibido un mensaje ACCEPT-PROPOSAL) han completado sus

tareas pueden, finalmente, responder con un INFORM con el

resultado de la acción (eventualmente justo cuando la acción ha

sido realizada) o con un mensaje de FAILURE si cualquier cosa

ha salido mal.

Antes de que la acción haya sido llevada a cabo y el último

mensaje se haya recibido el iniciador puede incluso decidir

cancelar el protocolo enviando un mensaje de CANCEL [10].

El conjunto de clases Subscription permiten implementar el

protocolo FIPA-Subscription. Este protocolo de interacción permite

al agente Iniciador enviar un mensaje SUBSCRIBE al agente

Respondedor indicando que quiere suscribirse. El agente

Respondedor procesa el mensaje y responde, bien aceptando o

rechazando la suscripción. Si el Respondedor rechaza la petición,

comunica un mensaje REFUSE, pero si está de acuerdo

comunica un mensaje AGREE, que es opcional. En caso de no

entender el mensaje, envía NOT-UNDERSTOOD.

Si el Respondedor está de acuerdo, comunica todo el

contenido emparejando la condición de las subscripciones usando

un INFORM-RESULT; por ejemplo, un acto comunicativo

INFORM con un predicado de resultado como contenido. El

Respondedor continúa enviando INFORM-RESULT hasta que el

Iniciador cancela, comunicándolo con un mensaje CANCEL, o

hasta que el Respondedor sufre un fallo, comunicándolo con un

mensaje FAILURE [10].

Adicional al soporte de la especificación FIPA, Jade presenta

una serie de comportamientos que los agentes pueden utilizar

para definir sus acciones, entre los cuales se encuentran

OneShotBehaviour y CyclicBehaviour. Este tipo de

comportamientos se corresponden con la clase SimpleBehaviour

que representa a comportamientos atómicos, que suelen realizar

tareas simples [11].

B. Sistemas de Recomendación

Los Sistemas de Recomendaciones (SR) constituyen una

herramienta de inestimable ayuda en el ámbito del comercio

electrónico. Cuando la oferta de productos de una tienda

electrónica es muy grande, los usuarios pueden sentirse

desbordados al tener que elegir entre una gran diversidad de

alternativas. Los SR son capaces de restringir este conjunto de

alternativas y proporcionar al usuario un subconjunto con aquellas

que probablemente mejor se ajusten a sus necesidades y gustos.

Son varios los modelos que pueden seguirse para construir un

SR: colaborativos, basados en contenido; demográficos, basados

en conocimiento y los basados en utilidad [12].

Los sistemas de recomendación basados en algoritmos de

filtrado colaborativo utilizan las valoraciones de los usuarios sobre

ciertos elementos del conjunto total para predecir valoraciones en

el resto de los elementos y recomendar los de mayor valoración

predicha.

Existe una serie de herramientas informáticas para este fin, sin

embargo unas de las más prometedoras y de mejor desempeño,

es el proyecto Apache Mahout, que tiene como objetivo

implementar algoritmos para el aprendizaje de máquinas, entre

sus subproyectos se encuentra uno directamente ligado a las

técnicas de filtrado colaborativo [17].

C. Enfoque de Solución

Para dar soporte a cada una de las operaciones enumeradas

se desarrollaron los siguientes elementos, ilustrados en la Fig.1.

Capa Web: El portal Web del proyecto, está especializado en la

venta de instrumentos musicales por internet, contiene todos los

elementos básicos para que los usuarios interesados en adquirir

productos musicales lo puedan realizar, para la estructuración de

este componente se tuvo en cuenta el patrón arquitectónico MVC

(Modelo – Vista - Controlador) teniendo como base las siguientes

capas:

Page 11: Revista SIRIO FUSM

Fig. 1. Componentes Aplicación Construida.

Capa de Presentación (Vista): En esta capa se encuentran

las páginas HTML planas (páginas de información al usuario), las

páginas JSP (páginas de interacción con el usuario), documentos

de estilo, código JAVAScript (funciones de presentación

dinámicas).

Capa de Negocio (Modelo): En esta capa se encuentran las

fachadas lógicas, representadas por clases JAVA, los cuales

proveen la funcionalidad a la que pueden acceder desde los

controladores. De igual forma, en esta capa se encuentran los VO

(Value Object) que representan cada una de las entidades que

comprenden el dominio del problema y que procesan las

diferentes peticiones realizadas con el fin de proveer respuesta y,

de igual forma, de enviar y consultar la información necesaria

hacia y desde la capa de persistencia, respectivamente.

Capa de Persistencia: En esta capa se encuentra las clases

JAVA que componen la fachada de persistencia, y los DAO (Data

Access Object) que se encargan de la administración de tareas de

persistencia del sistema.

Controlador: En esta capa se encuentran los servlets

controladores encargados de procesar las peticiones enviadas

desde la capa de presentación, adicionalmente se encuentran

especificados servlets Gateway encargados de establecer

comunicación con los agentes intermediarios, posterior a una

petición de los usuarios de la plataforma.

Agentes Intermedios En esta capa se encuentran localizados los agentes

encargados de comunicar los servlets y la plataforma multiagente.

Se debe tener en cuenta que la comunicación entre JADE y los

Servlets se logra gracias a la configuración de una clase servlet

(ServletGateWay) que sirve como interfaz y un agente

(AgenteGateWay) que recibirá datos al momento de ejecutar el

comando ―JadeGateway.execute(mensaje)‖. De esta manera el

servlet es configurado en el método de su inicialización (init()) con

la ubicación del agente GateWay de Jade (AgenteGateWay). Así

se podrá mantener la comunicación entre estas dos tecnologías,

permitiéndo enviar java Objects a los agentes Jade con

información para su configuración logrando establecer reglas para

su comportamiento [11].

Sistema Multiagentes JADE

El portal Web del proyecto, está especializado en la venta de

instrumentos musicales por internet brindando varios agregados.

Entre los cuales se encuentran, un servicio llamado ―Guitarra a la

medida de tu bolsillo‖, en donde un usuario autentificado puede

buscar una guitarra que se ajuste al tamaño de su bolsillo, esto

quiere decir que si el usuario dispone de una cantidad de dinero

específica puede registrarla y esperar posibles ofertas de otras

tiendas de guitarras en internet asociadas a la nuestra y el

sistema escogerá la mejor oferta basándose en las condiciones

del usuario (precio, marca, entre otras).

Para la implementación de este sistema se utilizó agentes

JADE configurados con el Protocolo FIPA-Contract-Net en donde

cada una de las diferentes tiendas de guitarras es representada

por un agente TiendaMusical, el cual se configura con una

cantidad de dinero específica que representa la oferta de cada

tienda, para cada uno de los productos ofrecidos. El Comprador

es un agente que lleva como parámetro el nombre del usuario

autenticado y el tamaño de su bolsillo, ósea la cantidad de dinero

con la que dispone para hacer la compra de la guitarra. Luego

que se encuentre la mejor oferta y se efectúe la negociación, el

agente Comprador guarda en la base de datos de la plataforma,

los datos de la oferta hecha por el agente TiendaMusical, para

que luego el usuario, pueda ver su oferta y decidir si la compra o

la rechaza.

Como otro agregado para la Tienda de instrumentos, se

implementó un boletín de noticias al cual, los usuarios

autentificados pueden suscribirse escogiendo un tema de cuatro

disponibles: Guitarras, Bajos, Baterías y Amplificadores. La

suscripción tiene un tiempo de vida predeterminado, esto quiere

decir que desde el primer día que se cree la suscripción se

pueden ver las noticias del tema escogido y al vencerse la

suscripción se podrá renovar sin ningún costo escogiendo el

mismo tema u otro distinto. Las noticias son ingresadas o

eliminadas por el administrador del sitio y cada vez que un usuario

entre a su cuenta podrá verlas de inmediato.

Para la implementación de este sistema, se utilizó agentes

configurados con el protocolo FIPA-Subscription donde cada vez

que un usuario se suscriba al boletín de noticias, un agente

EnviarSuscripcion, envía los datos de la suscripción (nombre de

usuario, tema) a un agente SubscriptionResponderAgent el cual

los analiza y si se ajustan a las reglas predefinidas la acepta.

Al momento de aceptar una suscripción el agente

SubscriptionResponderAgent envía un mensaje al agente

EnviarSuscripcion notificando el éxito o el fracaso, en caso de

éxito el agente guarda en la base de datos de la plataforma la

suscripción, para que el usuario cuando entre a la página pueda

ver las noticias relacionadas con su tema.

En la implementación del protocolo FIPA-SUBSCRIPTION el

agente EnviarSuscripcion necesitaba enviar una serie de datos al

agente SubscriptionResponderAgent por tanto se hizo necesario

el uso de una ontología. La ontología implementada ―Boletin-

ontology‖, está basada en los datos que debe tener una

suscripción para poder ser enviada a la bases de datos. Para usar

Page 12: Revista SIRIO FUSM

la ontología ―Boletin-ontology‖ ambos agentes deben registrar el

lenguaje ―codec2‖ y la instancia de la ontología.

Adicionalmente el portal web, ofrece un sistema de

notificaciones, en este momento se puede configurar para

supervisar cuando existan productos nuevos, ofertas pendientes y

nuevas noticias. El usuario puede configurar que quiere que le

notifiquen.

La notificación se lleva a cabo por medio de un agente con

comportamiento cíclico (CyclicBehaviour) el cual cada cierto

intervalo de tiempo consulta a la base de datos de las tiendas de

comercio electrónico. El usuario al entrar en la pantalla principal

del portal, se le presenta las notificaciones y las novedades.

Por último, el portal web ofrece un sistema de recomendación,

utilizando técnicas de filtrado colaborativo, es decir, por medio de

un sistema de ranking de productos para cada usuario. El sistema

es capaz de hacer recomendaciones a otros usuarios con gustos

similares.

Para la implementación de este se construyó un Agente

Recomendador con comportamiento Cíclico, que ejecutar el

algoritmo cada cierto intervalo, para tratar de encontrar productos

que le puedan interesar a los usuarios. Cabe mencionar que

debido a que este proceso es bastante pesado, se realiza offline

y los resultados se almacenan en el sistema de bases de datos de

la plataforma.

Como se puede observar la plataforma desarrollada automatiza

algunas fases del comportamiento de compra del consumidor:

búsqueda y selección del producto a través de agentes, búsqueda

y selección del vendedor y mecanismos de negociación

automática. Adicionalmente se agregaron elementos esenciales

para tiendas de comercio electrónico, como son: sistemas de

suscripción controlador por agentes, sistemas de recomendación

utilizando técnicas de filtrado colaborativo y sistemas de

notificaciones automáticos.

Tecnologías Alternas

Para la implementación del sistema recomendación se

utilizaron las librerías provistas por el proyecto Apache Mahout,

las cuales permiten recomendar productos a usuarios similares y

calcular los usuarios más parecidos a un perfil particular. Se utilizó

el API provisto y se integró como se comentó en el ítem anterior

con un agente Recomendador [13].

IV. CONCLUSIONES

Con la definición e implementación de las ontologías como

base de los mensajes intercambiados por los agentes, se logra

transmitir información variada y con un acercamiento objetual y se

evita tener que definir protocolos de comunicación textuales, que

deban ser estructurados o procesados en tareas de envio y

recepción de información.

La definición de los protocolos de comunicación y coordinación

entre los agentes utilizando el estandar FIPA, y la utilización de

plataformas de sistema multiagente como JADE, se convierte en

elemento clave, debido a que se sigue un formato predefinido y

comprensible, que facilita tareas de implementación,

mantenimiento y escalabilidad. A pesar que existen mecanismos

de interacción más avanzados que el protocolo ContraNet y

Suscription, estos satisfacieron las expectativas de acuerdo a los

objetivos planeados. En versiones posteriores se implementarán

mecanismos de subasta inglesa y holandesa con el fin de ofrecer

más capacidades de interacción y permitir estrategias de subasta.

La definición de mecanismos de información y publicación de

productos, para que agentes de software consuman información,

permitió que los administradores de los establecimientos de

comercio electrónico solo tuvieran que realizar configuraciones

mínimas, debido a que los agentes automatizaban los procesos

internos, que tiempo atrás debian ser ejecutados manualmente.

Debido al éxito de estos mecanismos, en etapas posteriores se

integrarán a sistemas de comercio electrónico disponibles, como:

Oscommerce y apache OfBiz, plataformas para la implementación

de tiendas vituales open source.

La utilización de técnicas de filtrado colaborativo se convierte

en una estrategia de Marketing importante para los sistemas de

comercio electrónico, debido a que se ofrecen productos que

interesan a los usuarios del sistema y por ende se convierten en

compras potenciales. La integración de tales sistemas con

agentes de software implementados en JADE, fue una estrategia

acertada en el desarrollo de este proyecto, porque los agentes

encapsulan dicho comportamiento y de forma proactiva van

encontrando productos de interés basado en las calificacaciones

realizadas por los usuarios a los productos ofrecidos en la

plataforma.

REFERENCIAS

[1] R.H. Guttman, A.G. Moukas, and P. Maes, ―Agent-Mediated Electronic Commerce: A Survey,‖ The Knowledge Eng. Rev., vol. 13,no. 2, pp. 147-159, 1998.

[2] F. Giraldo, D. Ovalle, J. Guzmán. ―Sistema MultiAgente para la Gestión de Material Bibliográfico― In IV Congreso Internacional de Electrónica y Tecnologías de Avanzada, 2005, Pamplona, Colombia. IV Congreso Internacional de Electrónica y Tecnologías de Avanzada. Pamplona, Colombia: IV Congreso Internacional de Electrónica y Tecnologías de Avanzada, 2005.

[3] M. Lopez, Estrategia de negociación automática basada en restricciones difusas sobre sistemas multiagentes.Universidad de Alcalá (España) ,2006.

[4] M. Rahman, M. Haque, N. Khurshed, ―Intelligent AuctionBot for Forward and Reverse English Auction‖, presented in 6th International Conference on Computer & Information Technology, 19-21 Dec 2003, Dhaka, Bangladesh, Vol. II Page. 952-955.

[5] C.Xiao-fang,W.Ying, ―Model of Multi-Agent Based on Personalized Transactions in Electronic Commerce‖, presented in Management Science and Engineering, 5-7 Oct. 2006.

[6] M.Fayek, I. Talkhan, K.El-Masry, ―GAMA (Genetic Algorithm driven Multi-Agents) for E-Commerce Integrative Negotiation‖, GECCO‘09, July 8–12, 2009, Montréal Québec, Canada. ACM 978-1-60558-325-9/09/07.

[7] A.Chavez and P. Maes, "Kasbah: An Agent Marketplace for Buying and Selling Goods," Proceedings of the first International conference on the Practical Application of Intelligent Agents and Multi-agent Technology (PAAM96). London, UK, 1996, pp. 75-90.

[8] J.Wang, Y.Chen, "Agent-Based Price Negotiation System for Electronic Commerce," isda, pp.90-93, Seventh International Conference on Intelligent Systems Design and Applications (ISDA 2007), 2007.

[9] A. Álvarez, Á. Villar, J. Benavides, C. García, I. Rodríguez, F.Rodriguez. "Experiencia en el desarrollo de un sistema multiagente", presented in¨XXII Jornadas de Automática. Año 2001.

[10] Escuela Superior de Ingeniería Informática de la Universidad de Vigo,2009. [Online]. Available: http://programacionjade.wikispaces.com/Comunicación#.

[11] F. Bellifemine,G. Caire,D. Greenwood, Developing Multi-Agent Systems with JADE . John Wiley & Sons Ltd, 2007.

Page 13: Revista SIRIO FUSM

[12] M. J. Barranco, L. G. Pérez, F. Mata, L. Martínez. "REJA: un sistema de recomendación de restaurantes basado en técnicas difusas". Universidad de Jaén, 2008W.

[13] Apache Mahout ,2009. [Online]. Available: http://lucene.apache.org/mahout/

Page 14: Revista SIRIO FUSM
Page 15: Revista SIRIO FUSM

Resumen—La ciudad de Bogotá capital de Colombia presenta un alto índice en generación de basura por habitante, esta basura contiene un porcentaje significativo de material reciclable, debido a la necesidad de la recolección y administración de estas basuras y en especial del material reciclable se crearon una serie de microempresas encargadas de manejar esos recursos reciclables. Estas microempresas no tienen apoyo significativo por parte de autoridades pertinentes, por ello presentan un bajo índice de organización que implica el mal manejo de material reciclable y la mala administración en su recurso humano como los son los recicladores. Estas microempresas necesitan una evaluación e identificación de los factores incidentes en su baja productividad y capacidad del manejo de este material reciclable para mejorar sus condiciones. En este proyecto se pretende abordar mejor éstas características y demostrar cuales serían las determinantes más incidentes para poder aumentar la productividad de las mismas.

Palabras Claves—Microempresa [1], Reciclaje [2].

I. INTRODUCCIÓN

nformación suministrada por los recicladores, en el país

comenzó la actividad del reciclaje desde hace más de 60 años,

para ese entonces contaba con una población aproximada de

20.000 familias cuyo medio de sustento era la recolección y

comercialización de todo tipo de material reciclable que se

pudieran encontrar en las calles convirtiéndose en su único medio

de sustento. ―De estas familias, 30% se encuentran asociadas en

128 cooperativas afiliadas a la Asociación Nacional de

Recicladores – ANR y el 70% trabajan en forma independiente.

Según el Censo de Recicladores, realizado por el Departamento

Nacional de Estadística – DANE, en Bogotá para el año 2003‖ [3].

II. PROBLEMA

De acuerdo con un estudio realizado por el Ministerio de

Ambiente, Vivienda y Desarrollo Territorial, en el país se generan

28.800 toneladas de desechos de las cuales se recuperan y

reintegran al ciclo productivo tan solo el 13%. El 6%

(aproximadamente) es reincorporado al ciclo de producción por la

industria y los convenios directos de ésta con el comercio, y el 7%

restante es recuperado y comercializado por los recicladores o

recuperadores informales [3].

Para el año 2005, Bogotá D.C. contaba con una población de

6´776.009 habitantes. El promedio de basura generada por

persona es de 0,5 a 1 Kg/día [4] lo que implica que en la ciudad

se generen alrededor de 8.000 Ton. de basura diaria. Según el

Departamento Nacional de Estadística – DANE- para el 2003

existían 8.479 recicladores informales y alrededor de 668

microcomercializadoras o microempresas ubicadas en los barrios

de estrato 1 y 2, donde la basura domiciliaria es dejada en las

calles, para luego ser utilizada por las personas que se dedican al

reciclaje, quienes buscan entre los desechos: papel, plástico,

cartón, vidrio y metal (materiales que tienen mayor demanda).

La tabla 1 el precio promedio de cada tonelada de material:

TABLA 1

PRECIO PROMEDIO DE LOS MATERIALES RECICLABLES EN BOGOTÁ

MATERIAL PRECIO ($ x Ton)

Papel 423.000

Cartón 251.000

Plástico 233.000

Vidrio 42.600

Chatarra 222.000

Metal no ferroso 1.600.000

Con estas cifras es de suponer que el sector de las

microempresas que se dedican al reciclaje tiene excelente

rentabilidad. Pero fijándonos en la realidad no es así, ya que en

el Distrito Capital no existe una cultura en torno a los desechos

sólidos generados y no hay separación en la fuente, lo que

dificulta su recolección y clasificación debido a que muchos de los

materiales que se pueden reciclar terminan contaminados con

residuos orgánicos generando problemas de orden técnico e

impidiendo el reciclaje del material. De otra parte la exclusión y

presión social que sufren las microempresas por parte de los

intermediarios del sector y la Unidad Ejecutiva de Servicios

Públicos, que pone en tela de juicio su sostenibilidad como

organización [5], adicionalmente, de los $32.000 millones que

produce el material reciclable en Bogotá, los recicladores solo

perciben $5.000 millones, por causa de la intermediación a la que

tienen que sujetarse, porque que no cuentan con los recursos

necesarios para convertirse en empresarios y poder vender el

material sin utilización de agentes externos a la microempresa

donde se queda la mayor utilidad producto del negocio [6].

III. JUSTIFICACIÓN

―La falta de espacio para la ubicación de los residuos, la

necesidad de un tratamiento específico para los mismos y el

impacto ambiental que genera, revela la urgente necesidad del

I

Análisis exploratorio de las microempresas de reciclaje en Bogotá

Diego Suero, Docente Investigador, Samuel Alfonso, Johanna Bocanegra, Ingeniería Industrial

Page 16: Revista SIRIO FUSM

reciclaje a gran escala‖ [3]. La capacidad de almacenamiento de

las microempresas de reciclaje en la ciudad no es la adecuada es

por esto que necesitan el uso de intermediarios que si cuentan

con dicha capacidad y que económicamente pueden auto

sostenerse y vender a la industria que se encarga de la

transformación con plazos superiores a 15 días, mientras que las

cooperativas y microempresas no lo pueden hacer ya que estos

viven del día a día [7]. Esto se debe a que el gobierno local no

crea planes de cofinanciación los cuales les permitirían aumentar

su capacidad de producción y por ende mejorar su competitividad.

―En el sector del vidrio se reincorporan unas 125.000 toneladas

al año y se requiere incorporar en el corto plazo unas 75.000

toneladas adicionales‖ [8].

―En el sector del plástico el porcentaje de recuperación se

estima en un 18% y se ha identificado la necesidad de desarrollar

estrategias, especialmente en lo que se refiere al establecimiento

de sistemas integrados de retorno de residuos post consumo. El

sector manifiesta la posibilidad de incrementar este porcentaje,

mediante el desarrollo de estrategias conjuntas con todos los

actores de la cadena del reciclaje‖ [3].

―En el año 2004 se produjo 41.000 toneladas de chatarra de

cobre y aluminio, de las cuales se exportaron, a través de los

grandes depósitos de chatarra, 14.000 toneladas y para la

producción nacional se aprovecharon 16.000 toneladas de cobre y

11.000 toneladas de aluminio. En este sector se presenta escasez

de material para la producción nacional especialmente para los

pequeños productores‖ [3]

―En efecto, el sector papel y cartón, introduce

aproximadamente unas 500.000 toneladas anuales de residuos

en su proceso, lo cual corresponde aproximadamente a 44% del

total del material utilizado en su proceso productivo‖ [3]. ―Hoy el

país recolecta por diferentes medios alrededor del 48% del total

del consumo aparente de cartones y papeles. Este porcentaje de

recuperación es de los más altos del mundo, superior al de países

con alto grado de desarrollo como Estados Unidos, Francia e

Inglaterra‖ [9].

IV. OBJETIVOS

A. Objetivo General

Identificar el grado de incidencia, de los factores determinantes

de la capacidad productiva de las microempresas de reciclaje de

Bogotá a partir de un modelo matemático.

B. Objetivos Específicos

Especificar las características de las microempresas de reciclaje.

Especificar las características de producción del reciclaje en Bogotá.

Caracterizar un modelo estándar del proceso productivo de las microempresas de reciclaje de Bogotá.

Especificar un modelo estadístico que permita explicar la capacidad productiva de las microempresas de reciclaje de Bogotá.

Verificar la concordancia del modelo con el entorno por medio de una prueba piloto.

V. MARCO TEÓRICO

A. Modelo Matemático

―Un Modelo Matemático es un patrón teórico ó experimental

que permite interpretar mediante métodos matemáticos

fenómenos reales o problemas técnicos para hacer inferencia y

tomar decisiones. Los modelos matemáticos son de dos clases:

Determinísticos: cuando se tiene plena certeza acerca del

funcionamiento y los resultados del problema.

Aleatorios o Estocásticos: cuando sólo se tiene certeza parcial

acerca del funcionamiento y se conocen los resultados probables

del modelo.

Un modelo matemático debe ser simple e involucrar las

variables que lo hacen completo‖ [10].

VI. METODOLOGÍA

El proyecto se define como una investigación propiamente

dicha de carácter cuantitativo.

A. Etapa 1

Se realizará la caracterización y evaluación de las

cadenas de reciclaje para su respectiva selección.

Realizar una encuesta con el fin de indagar la

información importante de las microempresas de

reciclaje Bogotá, con el fin de establecer los

materiales más reciclados en la ciudad, y el estado

actual de estas.

Identificar el grupo de microempresas a las cuales se

les realizara la encuesta.

Realizar la encuesta al mayor número de

microempresas enfocadas a la recolección y acopio

del material reciclable.

B. Etapa 2

Calcular el tamaño de muestra apropiado de las

microempresas de reciclaje, para así, especificar en

éstas, las principales variables que determinan la

capacidad de producción.

Identificar el tamaño del mercado de las

microempresas de interés con el fin de establecer

una muestra relevante.

Realizar un estudio a estas microempresas para

especificar las variables que afectan la capacidad de

producción.

C. Etapa 3

Compilar y analizar la información recogida para la

construcción del modelo de regresión multivariado.

Analizar toda la información recolectada por medio de

las encuestas y las investigaciones, con el fin de

clasificar las variables relevantes y poder identificar el

modelo matemático.

Page 17: Revista SIRIO FUSM

D. Etapa 4

Construcción y evaluación del modelo matemático que

permitirá realizar análisis de sensibilidad para la

estimación y observación de los componentes

principales de la productividad de material reciclado

en Bogotá.

Después de identificar las variables y el modelo

matemático a usar, realizaremos el montaje de este

con el fin de determinar la sensibilidad de cada

variable y cuál es la que más afecta la capacidad

productiva de las microempresas de reciclaje.

E. Etapa 5

Prueba piloto del modelo matemático.

Modificar las variables con el fin de ver los resultados

que se pueden obtener y si estos ayudan a mejorar la

capacidad productiva de las microempresas de

reciclaje.

VII. CARACTERIZACIÓN DE LAS EMPRESAS DE RECICLAJE

DE BOGOTÁ

De acuerdo a una encuesta desarrollada por estudiantes de

Ingeniería Industrial de la Fundación Universitaria San Martín,

aplicada a microempresarios en las localidades de Barrios Unidos,

Chapinero, Engativa, los Mártires y Suba, se concluye lo

siguiente:

Según un 73% de las microempresas encuestadas, el

gobierno no les ofrece ninguna ayuda para que puedan cumplir

con su labor del reciclaje, lo cual hace que no avancen

rápidamente, si no que por el contrario, se estanquen y pierdan

posición en el mercado ya que los programas que está generando

el gobierno los está obligando a cerrar sus negocios, pues no

permite el transporte de materiales en la calle sin un embalaje

adecuado; además dicen que el estado quiere privatizar el oficio

enfocándolo solo a unos cuantos. Argumentan también que la

rentabilidad de la actividad ha disminuido, por la poca oferta de

material.

El 60% de los encuestados no cuenta con capacitación. El

porcentaje restante, ha recibido inducción por parte de la

microempresa, el SENA o la Alcaldía Local. La mayoría del

universo objeto de la investigación realiza la actividad de manera

empírica y por la experiencia adquirida. En cuanto a su vigencia,

el 37% de las microempresas tienen entre 4 y 6 años de

creación, un 33% tiene entre 2 y 4 años, el 30% restante hace

relación a microempresas con menos de 2 años y mayores a 6. Lo

anterior muestra que este es un oficio relativamente joven.

Capacidad de Producción (venta) y almacenamiento entre 8 y

10 Ton/mes sin discriminar que tipo de material, es decir en la

misma bodega almacenan los diferentes materiales que compran

a los recicladores informales y acondicionan para su posterior

venta a bodegueros o intermediarios.

Producción 60% 8 y 10 Ton

Almacenamiento 37% 8 y 10 Ton

TABLA 2

ATRACTIVO DEL MATERIAL PARA LAS MICROEMPRESAS

MATERIAL ATRACTIVO (%)

Papel y cartón 80

Metal (chatarra) 13

Plástico 7

Vidrio 0 La tabla 2 relaciona el atractivo de los materiales.

Según la información suministrada por los encuestados, el

papel y cartón son los más reciclados y generan mayor atractivo

que otros materiales debido a su abundancia, lo que facilita su

recolección. Adecuar este material es muy sencillo, eso les

genera múltiples beneficios. Con respecto al vidrio y al plástico,

los datos muestran que el mayor atractivo es la facilidad de

recolección. En los anteriores materiales el precio fue segundo y

tercero no representa el principal atractivo; en cuanto al metal el

precio es el mayor incentivo para los microempresarios.

Los microempresarios no manejan planeación para ejecutar el

proceso, todo lo que llegue se compra (si cuentan con el dinero y

existe lugar para acomodarlo en la bodega) y se vende a

personas con quienes ya manejan relaciones comerciales o sino

al mejor oferente. El 43% de los encuestados dijo que no maneja

contratos con sus empleados directos, que en promedio son 3 o 4

personas, con esto evitan pagar prestaciones sociales, seguridad

social y parafiscales Se observa notoriamente el contrato de

destajo (el reciclador lleva lo que ha recolectado y lo vende según

el precio que ha fijado anteriormente con el bodeguero o

dependiendo del precio del mercado).

Para el pago de salario vemos que en un 37% de las

microempresas las trabajadores y auxiliares reciben entre medio

y un salario mínimo mensual vigente.

En el sector se observa el machismo, ya que a una mujer se le

paga menos por el material que lleva. Las mujeres no pueden

cargar el mismo peso que llevaría un hombre. El rango promedio

de edad de los recicladores está entre 19 y 25 años.

La baja recuperación, acopio y transformación de los

materiales que se pueden reciclar son algunas de las principales

características de este gremio y son factores que afectan su

capacidad de producción debido a la falta de infraestructura y

equipos que generen rentabilidad y valor agregado. Esto hace que

la condición de vida sea deprimente ya que un reciclador con

menos de un salario mínimo debe sustentar en promedio a dos

personas.

Las microempresas de reciclaje tienen un potencial que

explotar y es su capacidad de producción, con esto mejora su

rentabilidad y su calidad de vida además están ayudando

directamente a la conservación del medio ambiente.

REFERENCIAS

[1] Mora Jaramillo, Manuel Guillermo, TEXTO PROPUESTO PARA PRIMER DEBATE EN SENADO PROYECTO DE LEY NUMERO 04 DE 2007 SENADO Y PROYECTO DE LEY NÚMERO 33 DE 2007 SENADO (ACUMULADOS), Consultado el 14 de Junio de 2009, Pág. 13, Disponible en: http://www.ginaparody.com/medioambiente/pdf/rec_ponencia_comision5_1debate.pdf

Page 18: Revista SIRIO FUSM

[2] Grupo Ferrovial, (2008) Informe anual, Consultado el 28 de marzo del 2009 Disponible en: http://memoria2008.ferrovial.es/es/index.asp?MP=107&MS=0&MN=1

[3] Ministerio de Ambiente, Vivienda y Desarrollo Territorial, Despacho del Ministro República de Colombia (2007), Mesa nacional de reciclaje (Propuesta inicial), Consultado el 22 de abril del 2009, [Pag. 3] Disponible en: www.andi.org.co/dependencias/ambiental/novedades/mesareciclaje.pdf

[4] Universidad de los andes, Bogota, Colombia (Mayo, 2001), Revista de ingeniería, Consultado el 22 de abril del 2009, (ed.rev.13) [Pag. 5] Disponible en: http://revistaing.uniandes.edu.co/pdf/Rv13-A1.pdf?ri=7347bd4274bf541f8d18ad5822bded81

[5] Asociación cooperativa de recicladores de Bogotá (Colombia), (2006), Ciudades para un Futuro más Sostenible, Consultado el 22 de abril del 2009 Disponible en: http://habitat.aq.upm.es/bpal/onu06/bp1213.html.

[6] Ministerio de Ambiente, Vivienda y Desarrollo Territorial, (2004), Dirección de desarrollo sectorial sostenible, Consultado el 22 de abril del 2009, Disponible en: http://www.minambiente.gov.co/documentos/evaluacion_cadenas1_2005.pdf.

[7] Castro, Darío. Comunicación personal, 24 de marzo de 2009. [8] Red de desarrollo sostenible de Colombia (Mayo, 2007), Gobierno crea

mesa nacional de reciclaje Consultado el 22 de abril del 2009 [Datos claves, Parr. 8] Disponible en http://www.rds.org.co/notas-breves.htm?x=1054102

[9] Actividad de Reciclaje, SKCCRecycling. (s.f.). Recuperado el 12 de junio de 2009, de www.smurfitkappa.com.co/NR/rdonlyres/82DE8B17-4EF2-4E6A-8AA0-F3DE5AB68D9E/0/SKCCRecycling.doc.

[10] Bertrand Russell [BERU], (s.f.), Modelos aleatorios y probabilidades, consultado el 13 de junio del 2009, disponible en: http://74.125.47.132/search?q=cache:c63i0erwxvwj:www.unalmed.edu.co/~estadist/estainvesti/modelos%2520aleatorios%2520y%2520probabilidades%25202005.doc+que+e+un+modelo+matematico&cd=3&hl=es&ct=clnk&gl=co.

Page 19: Revista SIRIO FUSM

Palabras claves—Redes cognitivas, redes cooperativas, cuarta generación, calidad de servicio.

I. INTRODUCCIÓN

a evolución de los sistemas de comunicaciones y de

tecnologías en la última década, ha ocasionado que surjan

dispositivos inalámbricos de tamaño reducido y con gran variedad

de servicios, con lo cual se han incrementado las necesidades de

los usuarios para compartir conocimientos y puntos de interés,

dando así origen a las llamadas redes sociales.

Los servicios, por mencionar solo algunos, pueden permitirle a

un usuario revisar su cuenta de correo electrónico, navegar en

Internet, determinar su ubicación geográfica, intercambiar

archivos y mensajes, todo desde un teléfono celular. Sumado a

esto, la cantidad de equipos y de usuario han aumentado en

forma considerable durante el mismo periodo de tiempo.

Para poder cubrir estas necesidades, se han propuesto nuevos

estándares y nuevas alternativas de comunicación que tengan en

cuenta aspectos de conectividad entre dispositivos, permitiendo

configuración automática, extendiendo los servicios apoyándose

en colaboración de los nodos participantes en la red y teniendo en

cuenta aspectos a nivel de topología de la red y gestión eficiente

de la energía requerida.

II. GENERALIDADES DE 4G

Es interesante observar que algunos teléfonos móviles,

especialmente los teléfonos inteligentes, son mucho más que

teléfonos. Son realmente pequeños computadores móviles, ya

que proporcionan muchas de las funciones clave de un PC:

Un teclado, que es virtual y se representa en una pantalla táctil.

Interfaz gráfica de usuario amigable.

Servicios de Internet como el correo electrónico, navegación web y conectividad por Wi-Fi.

Cámara integrada con captura de imagen y vídeo.

Reproductor multimedia con capacidad de decodificación de audio y vídeo.

Medios de comunicación inteligentes, herramientas de gestión de canciones, álbumes de fotos, videos, etc.

Funciones de llamada de teléfono, incluyendo los mensajes de texto, correo de voz visual, etc.

Sin embargo, también hay muchas características con las

cuales algunos teléfonos móviles todavía no son compatibles

(aunque pueden llegar en breve), por ejemplo:

Soporte para TV móvil, para recibir programas de televisión en

directo.

Soporte para juegos 3D multiusuario en red.

Renderizado de escenas realistas en 3D.

Captura y renderización de imágenes y video.

Imágenes de alta definición.

La falta de estas funciones se debe a muchos factores,

incluyendo la capacidad de cálculo y la potencia de los

dispositivos móviles, el ancho de banda disponible y la eficiencia

de la transmisión de la red inalámbrica, la calidad de servicio

(QoS), soporte de los protocolos de red, el acceso universal a la

capacidad de la infraestructura del sistema de comunicación y de

la compresión y la eficiencia de control de errores de vídeo y

datos gráficos. Desde un punto de vista de la comunicación móvil,

se espera que tengan una tasa mucho más alta de transmisión de

datos, que es comparable a las redes de cable, así como servicios

y soporte para conectividad sin errores y el acceso a cualquier

aplicación, independientemente del dispositivo y su ubicación. Ese

es exactamente el propósito para el cual se dio paso a 4G.

4G es una abreviatura de cuarta generación, que es un término

usado para describir la evolución completa en la comunicación

inalámbrica. El sistema inalámbrico 4G se espera que proporcione

una solución IP completa en las aplicaciones multimedia y

servicios que pueden ser entregados al usuario en cualquier

momento y en cualquier lugar con una alta tasa de transmisión de

datos de primera calidad y de alta seguridad, que no se puede

lograr mediante la actual infraestructura inalámbrica 3G (tercera

generación). Aunque hasta ahora no hay una definición final de

4G, sin embargo, la Unión Internacional de Telecomunicaciones

(ITU) está trabajando en la norma y tiene como meta para el

despliegue comercial del sistema 4G en el periodo 2010-2015. La

ITU define IMT-Advanced como el sucesor de IMT-2000 (o 3G),

por lo que algunas personas llaman informalmente a las IMT-

Advanced.

Las ventajas de 4G frente a 3G se enumeran en la Tabla I.

Claramente 4G ha mejorado al sistema de 3G de manera

significativa no sólo en el ancho de banda, cobertura y capacidad,

sino también en muchas funciones avanzadas, como QoS, baja

latencia, alta movilidad, y aspectos de seguridad, etc. [1].

Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones.

L

Redes 4G, una evolución de las redes Ad Hoc Móviles

Page 20: Revista SIRIO FUSM

TABLA I

COMPARACIÓN ENTRE 3G Y 4G

3G 4G

Distribución de

potencia

Predominio de

transmisión de la

voz, los datos

ocupan un espacio

secundario.

Datos convergentes y

servicios multimedia

sobre IP.

Arquitectura de la

red

Redes de área

amplia.

Integración de redes LAN

inalámbricas y redes de

área amplia.

Ancho de banda

(bpsa) 384K - 2M

100M para móviles, 1G

para equipos

estacionarios.

Banda de

frecuencias (GHzb) 1.8 - 2.4 2 - 8

Conmutación

Conmutación de

circuitos y

conmutación de

paquetes.

Se usa únicamente

conmutación de paquetes.

Tecnología de

acceso Familia CDMA. Familia OFDMA.

Calidad de servicio

y seguridad No soportado. Soportado.

Técnicas multi-

antena

Soporte muy

limitado. Soportado.

Multicast / servicio

de difusión No soportado. Soportado.

abps: bits por segundo, bGHz: Giga-hertz

A. Estado de 4G y tecnologías clave

En general, al igual que las tecnologías, las infraestructuras y

los terminales han evolucionado en los sistemas inalámbricos

(como se muestra en la Figura 1) de 1G, 2G, 3G a 4G, y de LAN

inalámbrica, a acceso de banda ancha inalámbrica y a 4G, el

sistema 4G contendrá todas las normas que las generaciones

anteriores han aplicado. Movilidad

Baja

Media

Alta

1GNMT, AMPS, CDPD, TACS

2GGSM, iDEN,

IS-95

2.5G/2.75GGPRS, EDGE

3GUMTS, 1xEV-DO, FOMA, WiMAX

3.5GHSPA, HSPA+

Pre-4G/4GLTE, WiMAX, UMB, Flash-OFDM, WiBro

Wireless LANIEEE 802.11/WiFi

Broadband Wireless AccessIEEE 802.16/WiMAX

1980´s 1990´s 2000 2005 2010 2015

Fig. 1. Evolución de la tecnología hacia 4G inalámbrica.

Entre las pocas tecnologías que están siendo consideradas

para 4G incluyendo 3GPP LTE / LTE-avanzada, 3GPP2 UMB, y

Mobile WiMAX basada en el estándar IEEE 802.16m [1].

B. Redes 4G y el ambiente de Radio Compuesto

En la comunidad de comunicaciones inalámbricas se está

presenciando cada vez más la existencia del entorno de radio

compuesto (CRE) y como consecuencia la necesidad de

reconfigurar los conceptos basados en algoritmos cognitivos,

cooperativos y oportunistas. La CRE supone que diferentes redes

de radio pueden ser componentes cooperativos en una

infraestructura heterogénea de acceso inalámbrico, a través del

cual los proveedores de red pueden alcanzar de manera más

eficiente de la capacidad necesaria y los niveles de calidad de

servicio (QoS). La reconfiguración habilita a los terminales y

elementos de red para dinámicamente seleccionar y adaptarse a

las tecnologías de acceso de radio más adecuada para el manejo

de las condiciones encontradas en las regiones área específica de

servicios y zonas horarias del día. Ambos conceptos suponen

nuevos requisitos en la gestión de los sistemas inalámbricos. Hoy

en día, una multiplicidad de normas de tecnologías de acceso de

radio (RAT) se utilizan en las comunicaciones inalámbricas. Como

se muestra en la figura 2, estas tecnologías pueden ser

clasificadas en cuatro grupos [2]:

Fig. 2. Entorno de radio compuesto en el plano cognitivo, de

cooperación y oportunista en redes 4G.

Las redes celulares que incluyen la segunda

generación (2G), sistemas móviles, tales como el

Sistema Global para Comunicaciones Móviles (GSM),

y sus evoluciones, a menudo llamadas sistemas

Page 21: Revista SIRIO FUSM

2.5G, como la evolución digital GSM ensanchado

(EDGE), Servicio General de Radio Paquetes

(GPRS) y IS136 en los EE.UU.. Estos sistemas se

basan en la tecnología TDMA. Las redes móviles de

tercera generación (3G), conocido como Sistema

Universal de Telecomunicaciones Móviles (UMTS)

(WCDMA y CDMA2000) se basan en la tecnología

CDMA, que proporciona hasta 2 Mbit/s. Evolución a

largo plazo (LTE) de estos sistemas se espera que

evolucione hacia un sistema 4G que proporcione

hasta 100 Mbit/s en el enlace ascendente y de hasta

1 Gbit/s en el enlace descendente. Las soluciones se

basan en una combinación de múltiple portadora y

formatos de señal espacio-tiempo. Las arquitecturas

de red incluyen las redes celulares macro, micro y

pico (HAN) y redes de área personal (PAN).

Las redes de acceso vía radio de banda ancha

(BRANS) o las redes inalámbricas de área local

(WLAN), que pueden proporcionar hasta 1 Gbit/s en

4G. Estas tecnologías están basadas en OFDMA y

en codificación espacio-tiempo.

Difusión de Video Digital (DVB) y comunicaciones por

satélite.

Redes Ad hoc y de sensores con aplicaciones

emergentes.

Con el fin de aumentar la eficiencia espectral, además de la

codificación de frecuencia en espacio-tiempo en la capa física, los

nuevos paradigmas, como soluciones cognitivas, de cooperación

y oportunistas serán usados.

Aunque 4G está abierto para los nuevos esquemas de acceso

múltiple, el concepto de CRE sigue siendo atractivo para

aumentar la eficiencia en la prestación de servicios y las

posibilidades de explotación de los RAT disponibles. La hipótesis

principal es que las redes de radio, GPRS, UMTS, BRAN/WLAN,

DVB y así sucesivamente, pueden ser componentes de una

infraestructura heterogénea de acceso inalámbrico. El despliegue

de los sistemas de CRE puede ser facilitado por el concepto de

reconfiguración, que es una evolución de un radio definido por

software. De acuerdo con el concepto de reconfiguración, la

selección de RAT no se limita a los que están pre-instalados en el

elemento de red. De hecho, los componentes de software pueden

ser descargados, instalados y validados. Esto hace que sea

diferente del paradigma estático con respecto a la capacidad de

los terminales y elementos de red [2].

C. Comunicaciones Móviles 4G

3G de evolución a largo plazo (LTE), también conocido como

Super 3G, ha sido estandarizado para proporcionar servicios de

más alta velocidad de transmisión de datos. Sus tasas de

transmisión de datos pico de 100 Mbps y 50 Mbps para el enlace

descendente y ascendente, respectivamente. A pesar que LTE

puede proporcionar un servicio inalámbrico multimedia, su tasa de

transmisión de datos es aún limitada. A fin de proporcionar

servicios multimedia más ricos vía inalámbrica, las

comunicaciones móviles 4G, también conocido como LTE-

avanzada, necesita utilizar un ancho de banda mucho más

amplio, por ejemplo, 100 MHz de ancho de banda necesario para

alcanzar una velocidad de datos de hasta 1 Gbps, en relación con

las tecnologías avanzadas de acceso inalámbrico, tecnologías

MIMO, ARQ híbrido y así sucesivamente [3].

D. Sistemas Inalámbricos 4G

Las redes 4G pueden ser definidas como la conexión de redes

inalámbricas ad hoc de igual a igual de gran usabilidad y de

itinerancia mundial, la informática distribuida, la personalización y

soporte multimedia. Las redes 4G utilizarán la arquitectura

distribuida y el Protocolo Internet (IP) de extremo a extremo. Cada

dispositivo será un transceptor y un enrutador para otros

dispositivos en la red eliminando la debilidad de la arquitectura

centrada en habla de los sistemas celulares 3G. La cobertura y

capacidad de la red cambiará de forma dinámica para acomodar

cambios en los patrones de usuario. Los usuarios de forma

automática se alejarán de las rutas congestionadas para permitir

que la red de forma dinámica y automática se auto balancee.

Recientemente, varias tecnologías inalámbricas de banda

ancha han surgido para lograr altas tasas de datos y calidad de

servicio, de igual forma, las tarjetas de PC para ordenadores

portátiles se han venido habilitando permitiendo una mayor

portabilidad para el usuario [4].

III. COOPERACIÓN EN REDES AD HOC

Por más de una década la comunidad investigadora ha

estudiado de forma intensa las redes móviles ad hoc, conocidas

popularmente como MANET. La gran visión desde el comienzo de

su desarrollo ha sido la creación de una red autónoma y con auto-

organización sin ningún tipo de infraestructura pre-establecida o

una administración centralizada. Esto permite a los nodos

distribuidos aleatoriamente para formar una red funcional temporal

y soporta sin liberar o unir nodos.

En cierto sentido, todas las comunicaciones digitales

inalámbricas necesitan la cooperación al igual que los sistemas

comparten los recursos, y por lo menos en los elementos

extremos de la comunicación necesitan disponer de sistemas de

transmisión y protocolos que sean compatibles, y de alguna

manera estandarizados. El requisito para la cooperación en el

caso de sistemas ad hoc, sin embargo, es muy estricto y está

presente en todos los niveles del sistema [5].

La cooperación y sus desafíos

Los desafíos en el caso de redes ad hoc son ampliamente

relacionados con facilitar y garantizar la suficiente cooperación

entre los distintos nodos, y al mismo tiempo utilizar los escasos

recursos inalámbricos de manera eficiente. La cooperación se

define como "la acción de los cooperantes, es decir, de trabajar

juntos hacia el mismo fin, propósito o efecto; operación conjunta".

En el caso de redes ad hoc se debe ser cuidadoso para entender

que hay dos dominios distintos de cooperación;

"Cooperación de Comunicaciones", en el estricto

dominio del conjunto de comunicaciones, significa

que se tiene que proporcionar un conjunto común de

protocolos de comunicación y métodos de

transmisión para todos los anfitriones

correspondientes, a fin de que la red puede ser

Page 22: Revista SIRIO FUSM

establecida. Este problema es compartido con todos

los sistemas de comunicación, pero la naturaleza

dinámica de las redes ad hoc hace esto muy difícil.

En el caso de las redes ad hoc los desafíos que

surgen de la necesidad de soportar algoritmos

distribuidos y protocolos, y una topología dinámica

sin sacrificar demasiado la eficiencia.

"Cooperación Social" de los nodos de transmisión para

un bien común es otro aspecto. Aquí el desafío es la

cuestión de cómo garantizar que los nodos entre el

origen y el destino están cooperando en el reenvío de

paquetes. En el caso de las aplicaciones de red ad

hoc cerradas (tales como redes militares o de

emergencia) es más fácil de asegurar que si se están

considerando máquinas de red altamente dinámicas.

Una cantidad muy grande de investigación ha sido invertida en

el enrutamiento ad hoc. Aunque todavía hay algunos problemas

por resolver, que en su mayoría comentario aquí algunas

tecnologías maduras que han surgido. Se cree que la mayor parte

de los futuros trabajos de investigación se dirigirán a nuevos

dominios del problema. De hecho, algunos problemas de

ingeniería deben ser resueltos incluso antes que soluciones de

enrutamiento de enlace inteligente se puedan implementar

fácilmente.

Los paradigmas de redes inalámbricas de salto múltiple y de

redes ad hoc tienen ciertamente muchas características atractivas

que se pueden utilizar para mejorar el futuro de las arquitecturas

de red 4G. Uno de los retos para la creación de redes ad hoc esta

en conseguir el impulso suficiente detrás de la normalización de la

tecnología. Si bien, el paradigma básico de MANET es

específicamente para construir sistemas ad hoc, se debe llegar a

un acuerdo sobre la transmisión y el protocolo a usar [5]-[7].

IV. CONCLUSIONES

En los próximos años, parece inevitable que la computación

móvil prosperará y evolucionará hacia la integración,

convergiendo en la tecnología inalámbrica de cuarta generación.

La red ad hoc desempeñarán un papel importante en esta

evolución. Su flexibilidad intrínseca, la facilidad de mantenimiento,

la falta de infraestructura, la configuración automática, las

capacidades de auto-administración, y ventajas significativas de

costo lo convierten en el candidato ideal para convertirse en una

tecnología robusta para la comunicación omnipresente personal.

Las posibilidades y la importancia de las redes ad hoc son cada

vez más reconocidas por la investigación tanto de la comunidad y

la industria, como lo demuestra la avalancha de actividades de

investigación, el fuerte interés de la industria y un crecimiento casi

exponencial de las LAN inalámbricas. Al avanzar y cumplir con

éxito esta visión, se desea además fortalecer los conceptos de

cooperación, redes cooperativas y redes de conocimiento, que

finalmente ayuden a facilitar la publicación y distribución de

conocimiento a nivel global.

REFERENCIAS

[1] H. Wang, et al., ―4G Wireless Video Communications‖, John Wiley and Sons Ltd., 2009, pp. 1-5.

[2] S.Glisic and B. Lorenzo, ―Advanced Wireless Networks – Cognitive, Cooperative and Opportunistic 4G Technology – Second Edition‖, John Wiley and Sons Ltd., 2009, pp. 1-7.

[3] J. Wang, ―High Speed Wireless Commnuications – Ultra-Wideband, 3G Long Term Evolution, and 4G Mobile Systems‖, Cambridge University Press, 2008, pp. 23-27.

[4] V. K. Garg, ―Wireless Communications and Networking‖, Morgan Kaufmann Publishers, 2007, pp. 14-17.

[5] F. H. P. Fitzek and M. D. Katz, ―Cooperation in Wireless Networks: Principles and Applications‖, Springer, 2006, pp. 189-222.

[6] S. Basagni,et al., ―Mobile Ad Hoc Networking‖, John Wiley and Sons Ltd, 2004.

[7] H. Chen and M. Guizani, ―Next Generation Wireless Systems and Networks‖, John Wiley and Sons Ltd., 2006, pp. 361-396.

Page 23: Revista SIRIO FUSM

Resumen— En los años recientes, uno de los campos de investigación más importantes y prometedores han sido las metaheurísticas, las cuales permiten encontrar soluciones óptimas o subóptimas para problemas de naturaleza combinatoria y clasificados como NP-Hard, generando tiempos computacionales bajos. Este artículo presenta tres metaheurísticas: búsqueda tabú, algoritmo genético y enfriamiento simulado. Para minimizar la tardanza total ponderada en el modelo básico y para comprobar la eficacia del algoritmo desarrollado, cada uno de estos enfoques es probado con un conjunto de problemas (benchmark).

Este artículo presenta únicamente la aplicación de estos enfoques para el problema de minimizar la tardanza total ponderada; sin embargo, este enfoque es perfectamente aplicable a otros objetivos dentro del mismo esquema (tardanza máxima y makespan, por ejemplo).

Palabras Claves— Tardanza total ponderada, modelo básico, búsqueda tabú, algoritmo genético, recocido simulado, diseño de experimentos, secuenciación.

I. INTRODUCCIÓN

n la mayoría de los sectores productivos, la programación de

operaciones (secuenciación) reviste especial importancia por

su incidencia en la productividad y la competitividad de las

empresas. Esta se reconoce como un problema complejo dentro

de las organizaciones dado que involucra la asignación de

recursos escasos para lograr la satisfacción del cliente. Por tanto,

es importante desarrollar metodologías que permitan alcanzar

estos objetivos.

El propósito general de este artículo es presentar un algoritmo

eficiente para secuenciar operaciones, en un ambiente de

producción de una máquina, para minimizar la tardanza total

ponderada. Este problema de naturaleza combinatoria, ha sido

clasificado como un problema NP-Hard, por lo que los enfoques

de solución para el mismo han sido direccionados a través de las

metaheurísticas. En este artículo se recurre al desarrollo de tres

metaheurísticas: Búsqueda tabú, algoritmo genético y

enfriamiento simulado; cada uno de estos enfoques es probado

con un conjunto de problemas (benchmark) para comprobar la

eficacia del algoritmo desarrollado.

El documento se encuentra estructurado como sigue: en la

sección 2 se presenta el estado del arte, donde se presenta una

revisión de las investigaciones realizadas hasta la fecha; en la

sección 3, se realiza el planteamiento del problema de la tardanza

total ponderada para el modelo básico;

en la sección 4, se presenta la descripción de las técnicas

utilizadas para resolver el problema; en la sección 5, se definen la

estructuras de los algoritmos propuestos; en la sección 6, se

presentan las pruebas computacionales; los resultados de la

investigación son reportados en la sección 7; las secciones 8 y 9

presentan las conclusiones y el trabajo futuro, respectivamente.

II. ESTADO DEL ARTE

El problema general de la tardanza ponderada fue inicialmente

estudiado por Lawler [1] y Lenstra, Rinnooy y Brucker [2]. Ellos

mostraron que el problema es NP-Hard, y estos últimos

consideraron el caso donde los pesos son iguales. Lawler,

consideró el caso donde los pesos son dispuestos de acuerdo al

tamaño de los trabajos; aquellos con tiempos de procesamiento

largo tienen pesos pequeños. Con estas características iniciales,

desarrollaron un algoritmo con un tiempo de ejecución

pseudopolinomial.

Potts y Van Wassenhove [3] desarrollaron un algoritmo de

ramal y límite en el cual usaron relajación langragiana, porque el

algoritmo de ramal y limite solo, presenta grandes problemas

computacionales cuando se intenta solucionar de manera óptima

un problema con más de 50 trabajos. Ellos reemplazaron la

técnica de subgradiente de optimización por un multiplicador

adaptado, que dió una ventaja en velocidad para calcular el

límite; el método incorpora varios mecanismos de chequeo de la

dominancia del programa dinámico en la búsqueda. Este

desarrollo fue probado con problemas con más de 50 trabajos.

Abdul-Razaq, Potts y VanWassenhove [4] propusieron una

comparación computacional de varios algoritmos exactos. A partir

de los hallazgos encontrados en estos estudios, los enfoques de

solución se han direccionado en métodos heurísticos, que

incluyen heurísticas de solución simple como EDD (Earliest Due

Date), SPT (Shortest Procesing Time) y metaheurísticas como:

Búsqueda tabú, colonia de hormigas, enfriamiento simulado,

algoritmos genéticos y búsqueda local iterada; porque permiten

secuenciar mayor número de trabajos, además, de otros

acercamientos como relajación langragiana.

Matsuo, Suh y Sullivan (1987) propusieron un acercamiento

mediante enfriamiento simulado, que fue mejorado por una

heurística desarrollada por Potts y Van Wassenhove [5].

A. Bahram y K. R. Ramakrishnan [6] exponen una comparación

en dos reglas heurísticas: COVERT (El costo sobre el tiempo) y

AU (Urgencia Aparente), las cuales son contenidas en otras 12

reglas de despacho (heurísticas simples); estas reglas fueron

probados en problemas con 25, 50, 100, 150 y 200 trabajos.

P.A. Huegler y F.J. Vasko [7] realizaron una comparación de

heurísticas, donde definieron varias de ellas basadas en

programación dinámica con métodos simples (―quick and dirty‖) y

complejos; además, usaron una heurística denominada DESO

(Heurística descendiente con cero intercambios) combinada con

Aplicación de Metaheurísticas para Secuenciación de Máquinas en el Modelo Básico

Fabián Giraldo, Docente Investigador, Ingeniería de sistemas

E

Page 24: Revista SIRIO FUSM

enfriamiento simulado (SA). El uso de este método da la

posibilidad de mover la solución desde mínimos locales y llegar a

una solución óptima. Este método requiere un gran esfuerzo

computacional comparado con otras técnicas constructivistas

―quick and dirty‖. La comparación de estos algoritmos fueron

probados en problemas benchmark de 50, 100, 200 y 500

trabajos.

Crauwels, Potts y Van Wassenhove (1998); Congram, Potts, y

van de Velde [8] presentaron una eficiente heurística de búsqueda

local.

A. Bauer, B. Bullnheimer, R. Harti y C. Strauss [9] desarrollaron

un algoritmo de colonia de hormigas. Ellos integraron una

heurística simple MDD (Modified due date), experimentaron con

varias heurísticas de información y con varios métodos de

búsqueda local. Probaron su desarrollo con 250 problemas

benchmark con 50 y 100 trabajos, donde encontraron que la

colonia de hormigas es un método apropiado para este problema.

P.M. França, A. Mendes y P. Moscato [10] desarrollaron un

algoritmo memético (MA), el cual compararon con un algoritmo

genético puro; donde la principal contribución de este trabajo con

respecto la implementación de los algoritmos tradicionales es, la

implementación de la población hibrida como un acercamiento a

la estructura jerárquica, como un árbol y la evolución de los tres

operadores recombinados. En lo que se refiere al procedimiento

de mejora local, los vecinos, implementados mediante la

estructura jerárquica, reducen los esquemas de desarrollo;

demostrando ser eficiente cuando es comparado con un

vecindario completo.

I. Borgulya [11] en su trabajo describe un nuevo algoritmo

evolutivo, la operación de este método fue dividida en tres

estados: Un cluster y dos estados de búsqueda local. En el primer

estado se enfocaron en soluciones localmente óptimas agrupadas

basadas en su similaridad. En el segundo estado, mejora la

precisión de la aproximación de la solución con un procedimiento

de búsqueda local mientras que periódicamente genera nuevas

soluciones. En el tercer estado, el algoritmo continúa la aplicación

del procedimiento de búsqueda local. Ellos prueban el algoritmo

con todos los problemas benchmark de la libreria ORLIB.

N. L. Mohamed, Abdelrahman y S. Ramaswany [12]

desarrollaron un enfoque de solución mediante algoritmos

genéticos. El algoritmo usó una representación del cromosoma

por permutación natural. Mediante combinación de reglas de

despacho y un método aleatorio, originaron la población inicial.

Los problemas de prueba generados mostraron la eficiencia y

calidad de la medida de cumplimiento, con problemas de 10, 25,

50, 100, 200 y 500 trabajos.

R. Maheswaran y E. S. G. Ponnambalam [13] desarrollaron un

procedimiento heurístico llamado backward forward heuristic y un

análisis para los métodos de formulación de los problemas. Los

problemas benchmark y sus valores conocidos disponibles en la

librería ORLIB fueron usados para el desarrollo de una

comparación con el fin de encontrar la influencia de la fecha

prevista relativa (RDD) y el factor de tardanza.

E. Rodríguez, D. Carmona, L. F. Moreno, F. J. Díaz, G. E.

Peña y C. Cárdenas [14] desarrollaron un algoritmo de búsqueda

tabú. El algoritmo desarrollado empleó un vecindario basado en

intercambios aleatorios pareados. Realizaron experimentos de

prueba, fijando diferentes tamaños de vecindario. Los resultados

mostraron que el algoritmo produce soluciones óptimas o

cercanas al óptimo en los problemas de prueba analizados;

además, encontraron que los distintos tamaños del vecindario no

muestran diferencias significativas en la frecuencia de hallazgos

de soluciones óptimas.

A. Grosso, F. Della Croce y R. Tadei [15] presentaron una

mejora al enfoque de solución dado por Congram, Potts y Van de

Velde. Ellos desarrollan una mejora al vecindario de dynasearch,

obtenido por la generalización de un intercambio pareado de

operadores; sustentado por las pruebas computacionales

generadas.

R. Maheswaran y E. S. G. Ponnambalam [16] desarrollaron un

algoritmo evolutivo, donde utilizaron un intercambio aleatorio para

el operador de mutación y un orden para el operador de cruce. La

propuesta de algoritmo comienza con una par de secuencias: una

generada por una heurística greedy; y otra, por una namely. Los

experimentos computacionales condujeron a aplicar en el

operador de mutación una secuencia de la fase backward,

desarrollado en trabajos anteriores. Se probó con 125 problemas

benchmark disponibles en la librería ORLIB y los resultados son

comparados con los resultados disponibles conocidos, dando

mejores resultados que otros.

Ü. Bilge, M. Kurtulan y F. Kirac [17] presentaron un

procedimiento de búsqueda totalmente determinístico con un

vecindario híbrido y una estancia de estructura dinámica. Ellos

investigaron la resistencia de la lista de candidatos, basada en

una estrategia a problemas específicos característicos, buscando

un incremento de la eficiencia de la búsqueda; generando una

mejor calidad de los resultados en los problemas benchmark

obtenidos de la literatura.

P. Araya, P. Silva y P. Palominos [18] presentaron una nueva

heurística greedy, basada en un intercambio de trabajos que

disminuye la función objetivo. Esta heurística fue comparada con

los resultados de los problemas de la librería ORLIB, mostrando,

en algunos casos analizados, que las soluciones son iguales a la

solución óptima con un promedio de error del 2%.

A.B. Colak Altuna y A. Burak Keha [19] solucionan el problema

usando programación entera y programación lineal basada en

algoritmos heurísticos. Ellos formularon un intervalo indexado en

la formulación del problema; mostrando diferentes métodos para

formar el intervalo y diferentes métodos de post-procesamiento.

De acuerdo a esos desarrollos ellos exponen cómo este algoritmo

puede ser usado para mejorar la población de un algoritmo

genético.

L.T. Xianpeng Wang [20] enfocó la solución para el problema

en el desarrollo de una población basada en un vecindario de

búsqueda (VNS). El primer PVNS (Primer vecindario de

búsqueda) consistió en un número de iteraciones básica de VNS,

y en cada iteración una población de la solución es generada,

permitiendo que hayan múltiples soluciones como método de

mejora para la búsqueda de la diversificación. En la segunda

PVNS adoptaron una combinación de path-relinking variable y

búsqueda tabú; actuando como un procedimiento de búsqueda

local como una intensificación de la búsqueda.

Page 25: Revista SIRIO FUSM

III. PLANTEAMIENTO DEL PROBLEMA

El problema de la minimización de la tardanza total ponderada

en el modelo básico puede ser planteado de la siguiente manera:

Cada orden contiene n trabajos, numerado de 1 a n ,

disponibles en tiempo igual a cero; a ser procesados sin

interrupción en una máquina, donde la máquina sólo puede

procesar un trabajo a la vez. Cada trabajo j

tiene un tiempo de

procesamiento Pj , una fecha de compromiso dj

y una

penalización wj

, por cada unidad de tiempo que el trabajo

finalice después de la fecha de compromiso.

Una vez secuenciados todos los trabajos cada uno tiene un

tiempo de terminación Cj .

Se define como medida de cumplimiento, como la tardanza del

trabajo que puede ser definida así: ),0max( djCjTj , donde

Tj representa, la diferencia positiva a partir de la fecha de

compromiso. Si se asume que la función de penalización es

lineal, entonces el problema consiste en hallar una secuencia que

minimice:

(1)

Varios autores han desarrollado estudios donde muestran que

este problema es NP-Hard.

IV. TÉCNICAS UTILIZADAS

Los algoritmos de búsqueda local tienen la ventaja de ser

flexibles o aplicables con gran generalidad, esto quiere decir que

solo requieren de una serie de pautas: especificaciones de

solución, función objetivo y un método eficiente para explorar las

regiones de solución. En la actualidad se han desarrollado

muchos métodos que toman ventaja de estrategias en las que se

aceptan soluciones que deterioran la función de ‗costo‘ como son:

búsqueda tabú, algoritmos genéticos y enfriamiento simulado. En

esta sección se presenta una breve descripción de cada una de

estas técnicas.

A. Búsqueda tabú (TS).

El algoritmo de búsqueda tabú es, una estrategia de búsqueda

basada en la memoria [21], combina un algoritmo determinístico

de avance iterativo con la posibilidad de aceptar soluciones que

incrementen el costo. De esta manera, la búsqueda es dirigida

fuera de óptimos locales y, por lo tanto, otras partes del espacio

de soluciones pueden ser exploradas. El algoritmo preserva una

lista de movimientos o soluciones que han sido visitadas en el

pasado; esta lista es conocida como lista tabú y es una estructura

de cola con estrategia FIFO, con tamaño fijo o variable. El

propósito de esta lista es restringir la elección de soluciones para

prevenir el regreso a puntos recientemente visitados; es decir,

evitando alguna repetición o ciclo. La lista tabú es actualizada

dinámicamente durante la ejecución del algoritmo y define

soluciones que no son aceptables en unas siguientes iteraciones.

Sin embargo, una solución de la lista tabú puede ser aceptada si

su calidad, en algún sentido elevada, lo justifica. En este caso se

dice que se ha alcanzado cierto nivel de aspiración.

La memoria puede ser reciente o basada en la frecuencia. En

caso de la memoria reciente, también conocida como memoria

corta, el tabú, es de tamaño N, donde se guarda los últimos N

movimientos que el algoritmo haya encontrado; el principal

objetivo es, explorar profundamente una región determinada del

espacio de soluciones. La memoria basada en la frecuencia,

conocida como memoria larga, proporciona información adicional,

la frecuencia con que ocurren los movimientos tabú en la solución,

con el fin de identificar regiones del espacio de búsqueda.

B. Algoritmos genéticos (GA)

Los Algoritmos Genéticos constituyen una técnica de búsqueda

y optimización, altamente paralela, inspirada en el principio

Darwiniano de selección natural y reproducción genética; los

principios de la naturaleza en los cuales están inspirados los

algoritmos genéticos son muy simples.

De acuerdo con la teoría de Darwin, el principio de selección

privilegia los individuos más aptos con mayor longevidad y, por lo

tanto, con mayor probabilidad de reproducción. Los individuos con

más descendentes tienen más posibilidades de transmitir sus

códigos genéticos en las próximas generaciones. Tales códigos

genéticos constituyen la identidad de cada individuo y están

representados en los cromosomas.

Estos principios son imitados en la construcción de algoritmos

computacionales que buscan la mejor solución, para un

determinado problema, a través de la evolución de poblaciones de

soluciones codificadas a través de cromosomas artificiales, ya que

estos son capaces de generar soluciones para problemas del

mundo real. El desarrollo de dichas soluciones hacia valores

óptimos para el problema depende en buena medida de una

adecuada codificación de los cromosomas y del diseño del

algoritmo genético [22].

En general, el trabajo con algoritmos genéticos [23], requiere

de una representación del problema, mediante un cromosoma.

Cada uno es una estructura de datos que representa una de las

posibles soluciones del espacio de búsqueda del problema,

además de una función de evaluación o de adaptación al

problema, la cual asigna un valor a cada posible solución

codificada indicando la bondad de la solución. Durante la

ejecución del algoritmo, los padres deben ser seleccionados para

la reproducción o intercambio genético, lo que producirá nuevos

hijos o soluciones, a los cuales, con cierta probabilidad, se les

aplicará una mutación. El resultado de la combinación de los

pasos anteriores será un conjunto de individuos, posibles

soluciones al problema, los cuales pasarán a formar parte de la

población en la siguiente generación.

C. Enfriamiento simulado (SA)

El enfriamiento simulado es una técnica de relajación

estocástica [24], que encontró su origen en la mecánica

estadística; esta técnica es análoga a los procesos de recocido

en los sólidos. El proceso de recocido consiste en evitar el estado

meta-estable producido por el enfriamiento; los metales suelen ser

enfriados muy lentamente. Mediante ese tiempo se obtiene un

orden estable, estructura fuerte y bajas configuraciones de

1

)(J

wjTjsF

Page 26: Revista SIRIO FUSM

energía. Esta analogía puede ser usada en la optimización

combinatoria; los estados de sólidos corresponden a la solución

factible, la energía en cada uno de los estados permite encontrar

la mejora a la función objetivo. Para llegar a estos estados se

involucra la reducción gradual de temperatura durante la

simulación, lo que da al sistema la oportunidad de superar

barreras energéticas en la búsqueda; permitiendo encontrar

mínimos locales de energía.

En cada paso de simulación del algoritmo, un nuevo estado del

sistema es construido por un estado presente dado por un

desplazamiento aleatorio a una partícula aleatoriamente

seleccionada. Si la energía asociada con el nuevo estado es

menor que la energía del estado presente el desplazamiento es

aceptado; así ese estado es, el estado presente. Si el nuevo

estado tiene una energía mayor, la probabilidad de cambio del

presente estado al nuevo estado se da por medio de una

ecuación de transición.

V. ENFOQUES DE SOLUCIÓN

Con el fin de dar una solución eficaz, al problema de la

tardanza ponderada para el modelo básico, se han adoptado las

anteriores tres técnicas metaheurísticas, por que ofrecen grandes

ventajas respecto a otras técnicas estudiadas y han demostrado

ser una metodología competente, que arroja buenos resultados.

La secuencia de pasos que sigue los algoritmos desarrollados

se puede resumir como sigue.

A. Búsqueda tabú (TS).

La estructura de este enfoque esta dada por los siguientes

pasos:

Mecanismo de generación de la solución inicial; esta

es construida aleatoriamente.

Generación del vecindario: Para evolucionar hacia

otras soluciones, se utilizan funciones que alteren la

secuencia inicial o actual, y así generar un entorno de

búsqueda. El algoritmo genera un vecindario de

secuencias, construidas a partir de la solución inicial;

por lo que, se pueden obtener realizando un

intercambio aleatorio pareado de los n trabajos.

Evaluación de la función objetivo: Se evaluan cada una

de las soluciones del vecindario y se escoge aquella

que tenga la menor tardanza ponderada; esta se

convierte en la nueva solución actual.

Actualización de la lista tabú: La actualización consiste

en evaluar si la solución de menor tardanza

ponderada, hallada anteriormente, se encuentra en la

lista tabú, en cuyo caso se remueve esta del

vecindario y se regresa al paso anterior; de no estar,

la solución es añadida a la lista tabú. El tamaño de la

lista tabú desarrollado es fijo, es de memoria corta.

Criterio de finalización: Número de iteraciones

determinado inicialmente.

B. Algoritmos genéticos (GA).

La estructura general de este enfoque está dada en

los siguientes pasos:

Obtener una representación genética a una solución

del problema, mediante un cromosoma artificial.

Generar mecanismo para la población inicial. P (t).

Definir una función de evaluación que permita clasificar

los individuos en términos de la función aptitud

definido para el problema.

Utilizar operadores genéticos que alteren la

composición de los hijos, durante la reproducción y

la mutación, lo cual permite generar el entorno de

búsqueda.

Evaluación de la función objetivo: Se evalua cada una

de las soluciones de la población y se escoge aquella

que tenga la menor tardanza ponderada; esta se

convierte en la nueva solución actual.

Definir un mecanismo para que los individuos pasen a

la siguiente generación.

Criterio de finalización. Número de generaciones.

El funcionamiento básico del algoritmo es el siguiente: El

algoritmo genético mantiene una población de individuos, llamada

P (t), para la generación t; cada individuo representa una solución

potencial al problema; cada individuo es evaluado y se obtiene

una medida de su función de aptitud; algunos se seleccionan y se

le aplican operadores genéticos para formar nuevos individuos.

Hay dos tipos de transformaciones (Operadores genéticos):

Mutación, la cual crea un nuevo individuo realizando un cambio en

un individuo de la población de padres; y el cruce, el cual crea

nuevos individuos combinando partes de dos individuos de la

población de padres. Los nuevos individuos, llamados

descendencia C(t), son evaluados. Una nueva población es

formada seleccionando los individuos de mejor fitness de la

población de los padres y tomando otros siguiendo alguna regla

de selección de la descendencia generada.

Después de varias generaciones, el algoritmo converge al

mejor individuo, el cual representa una solución óptima o

subóptima al problema.

Los elementos principales del algoritmo y la forma en que

fueron obtenidos se resumen como sigue:

Representación del cromosoma: Se seleccionó la

codificación entera unidimensional mediante

permutación de trabajos, a cada trabajo se le asigna

una identificación numérica única, formando el vector

[1, 2, 3,…n], donde n indica el número de trabajos. La

representación muestra la secuencia que minimiza la

tardanza total ponderada.

Formación de la población Inicial P (t): Se generan

aleatoriamente los individuos, de acuerdo a un

mecanismo de selección para formarla y un tamaño

definido inicialmente, como parámetro del algoritmo.

Función de aptitud (Fitness): Es la definida como

función objetivo para el problema

Formación de los descendientes C (t): Se generaron

nuevos individuos a través de los operadores

genéticos, reproducción y de mutación.

Reproducción: Se seleccionan dos individuos de la población y

Page 27: Revista SIRIO FUSM

]),2/1(),2/1([ RDDTFTRDDTFTUdj

se denominan como P1 y P2. Se genera un punto de corte

aleatoriamente; el punto de corte es un número aleatorio entre 1

y el número de trabajos que conforman el cromosoma; el corte se

hace en cada uno de los cromosomas seleccionados como

padres.

Se producen dos nuevos individuos utilizando los siguientes

métodos:

Individuo1: Se preserva la posición absoluta de los

trabajos de P1 antes del corte y se completa el

cromosoma con los trabajos diferentes a los tomados en

P1 de P2.

Individuo2: Se preserva la posición absoluta de los

trabajos de P2 antes del corte y se completa el

cromosoma con los trabajos diferentes a los tomados en

P2 de P1.

Mutación: Se parte de los cromosomas P1 y P2, nombrados

para la reproducción. Para P1 se intercambian trabajos

adyacentes en el cromosoma, y se forma un nuevo individuo;

Para P2 se intercambian trabajos adyacentes en el cromosoma y

se forma el nuevo individuo.

Este procedimiento se realiza tantas veces como

descendientes se hayan configurado inicialmente, mediante un

porcentaje de reproducción y mutación, como parámetros del

algoritmo.

Selección: Los individuos se seleccionan de la siguiente

manera: se toman la mitad de los mejores individuos de la

población actual P (t) y la otra mitad se toma de los descendientes

generados utilizando la regla de la ruleta. Para realizarla se

realizan los siguientes pasos:

Suma de todas las funciones de aptitud de los

individuos descendientes, TF.

Se genera un número aleatorio entre 1 y TF.

Se retornan los primeros miembros de la población que

supere el número aleatorio generado.

Se completa la población utilizando los siguientes

mejores individuos de la población P (t).

C. Enfriamiento simulado (SA)

La estructura de este enfoque esta dada por los siguientes

pasos:

Mecanismo de generación de la solución inicial, esta

es construida aleatoriamente.

Seleccionar una temperatura inicial t0. mayor que cero.

Seleccionar una función de reducción de la

temperatura.

Generación del vecindario: Para evolucionar hacia

otras soluciones, se utilizan funciones que alteren la

secuencia inicial o actual, para generar un entorno de

búsqueda. El algoritmo genera un vecindario de

secuencias, construidas a partir de la solución inicial;

por lo que, se pueden obtener realizando un

intercambio aleatorio pareado de los n trabajos.

Evaluación de la función objetivo. El propósito es

evaluar cada una de las soluciones del vecindario.

Seleccionar la mejor solución encontrada para los

vecinos (Sbest) y compararla con la solución actual

(Sc). Si Sbest es menor que Sc, entonces se toma

como mejor solución del problema; en caso contrario,

se pregunta si la solución encontrada es mejor que la

solución obtenido en la iteración k; si es así, se

acepta como nueva solución k+1; en caso contrario,

se genera un número aleatorio uniforme y se

compara con (2); si es menor se acepta como

solución k+1, para la iteración.

(2)

Se actualiza la temperatura,

usando la función de transferencia, que en este caso

es: tt 9.0

Criterio de finalización: Número de iteraciones

configurado como parámetro del algoritmo.

VI. PRUEBAS COMPUTACIONALES

A. Bahram y K. R. Ramakrishnan, desarrollaron un esquema, el

cual se adoptó para este estudio, para generar los problemas de

prueba (generados aleatoriamente y que contemplan 40, 50 y 100

trabajos) de la siguiente manera:

Tiempos de procesamiento. Son generados mediante

una distribución uniforme discreta tal que:

)100,1(UPi .

Fecha de compromiso: Los problemas NP-Hard

dependen de un rango de fecha de compromiso

relativo (RDD) y el promedio del factor de tardanza

(TF), por lo que la fecha de compromiso es generada

mediante una distribución uniforme tal que:

(3)

En donde RDD, toma valores de (0.2, 0.4, 0.6, 0.8, 1.0); TF de

(0.2, 0.4, 0.6, 0.8, 1.0) y T se calcula con (4).

(4)

iii. Penalización de la tardanza: Los pesos fueron generados

por una distribución uniforme ]10,1[Uwj .

VII. ANÁLISIS DE RESULTADOS

En esta sección se describen las pruebas computacionales que

se usaron para evaluar la eficiencia de los distintos métodos

metaheurísticos. Para ilustrar la efectividad de los algoritmos

propuestos en este artículo, se realizaron pruebas con algunos

problemas de referencia de 40, 50 y 100 trabajos tomados de la

librería ORLIB, que presentan el mismo esquema de generación

que el descrito en la sección anterior.

A continuación se describen los parámetros utilizados para

ejecutar los tres algoritmos.

t

kSFcSF

e

)()(

PjnjT ),...,1(

Page 28: Revista SIRIO FUSM

Vecindario: como se dijo anteriormente, el vecindario fue

construido mediante intercambios aleatorios entre parejas de

trabajos. Se hicieron las pruebas con un tamaño de vecindario de

10 para los tres enfoques.

Número de ejecuciones y número de iteraciones: para cada

uno de los problemas se hicieron experimentos de 5 ejecuciones,

cada una con 500000 iteraciones, dado que la solución inicial es

aleatoria y por lo que el entorno de búsqueda es diferente para

cada una de las corridas.

El programa fue implementado en lenguaje Java y las pruebas

fueron realizadas en un portátil IBM con procesador Intel(R)

Pentium(R) M de 1.4 GHz, y 512MB de Memoria RAM.

La tabla 1 muestra los resultados obtenidos para el problema

de 40 trabajos en cada tamaño de vecindario; para cada criterio

de paro analizado; para las tres metaheurísticas desarrolladas, y

se muestra el tiempo de ejecución para cada corrida. En la parte

inferior se encuentra el óptimo o la mejor solución conocida.

TABLA 1.

RESULTADOS EXPERIMENTALES PARA EL PROBLEMA DE 40 TRABAJOS.

Tiempo de

ejecución

(ms)

Enfoque de soluciónFunción

objetivo

1 406194 Tabu Search 1108

2 309655 Tabu Search 1079

3 308875 Tabu Search 1008

4 308824 Tabu Search 956

5 313110 Tabu Search 1096

6 551293 Genético 1132

7 481640 Genético 1274

8 451700 Genético 1278

9 436377 Genético 1128

10 455194 Genético 1129

11 36534 Enfriamiento Simulado 1181

12 334080 Enfriamiento Simulado 1084

13 331496 Enfriamiento Simulado 1029

14 326008 Enfriamiento Simulado 956

15 339788 Enfriamiento Simulado 1036

Óptimo 913

Para medir el desempeño de las metaheurísticas y poderlas

comparar se calcularon dos indicadores utilizados en la

programación de producción como lo son (5) y (6).

Error relativo enfoque óptimo

óptimo100%

(5)

Mejoramiento enfoque(a) enfoque(b)

enfoque(a)100%

(6)

Para hacer el cálculo de este indicador se realizó una

combinación de los enfoques desarrollados y, seguidamente,

hacer la comparación de mejoramiento entre los mismos.

La tabla 2 muestra los indicadores para medir el desempeño de

cada uno de los enfoques propuestos, para los resultados

obtenidos en el problema de 40 trabajos.

De acuerdo a los anteriores indicadores, se afirma que el error

relativo es alto en todos los enfoques desarrollados, hallando

como error relativo global un 20.29%; sin embargo, se hallan

acercamientos a la solución óptima dada por la literatura, para los

enfoques de búsqueda tabú y enfriamiento simulado, teniendo

estos un acercamiento al óptimo en una de las ejecuciones para

cada uno.

El indicador de mejoramiento para los enfoques indica, de

acuerdo a la función objetivo encontrada para el problema de 40

trabajos, cual de los enfoques es mejorado por algunos de ellos (o

tal vez no se encuentren diferencias significativa en el momento

de encontrar el óptimo del problema).

TABLA 2.

INDICADORES DE DESEMPEÑO, PARA EL PROBLEMA DE 40 TRABAJOS.

Problemaserror

relativo Mejoramiento Combinación

1 TS-1 21,36% -2,17% TS(1)-AG(6)

2 TS-2 18,18% -6,59% TS(1)-AS(11)

3 TS-3 10,41% -18,07% TS(2)-AG(7)

4 TS-4 4,71% -0,46% TS(2)-AS(12)

5 TS-5 20,04% -26,79% TS(3)-AG(8)

-2,08% TS(3)-AS(13)

6 AG-6 23,99% -17,99% TS(4)-AG(9)

7 AG-7 39,54% 0,00% TS(4)-AS(14)

8 AG-8 39,98% -3,01% TS(5)-AG(10)

9 AG-9 23,55% 5,47% TS(5)-AS(15)

10 AG-10 23,66% -4,33% AG(6)-AS(11)

14,91% AG( 7)-AS(12)

11 AS-11 29,35% 19,48% AG(8)-AS(13)

12 AS-12 18,73% 15,25% AG(9)-AS(14)

13 AS-13 12,71% 8,24% AG(10)-AS(15)

14 AS-14 4,71%

15 AS-15 13,47%

De acuerdo a los resultados reportados en la tabla 2. Se

encuentra que el enfoque de algoritmo genético y enfriamiento

simulado disminuyen en un porcentaje bastante alto la calidad de

la solución (en menor proporción este último; hallado por el

enfoque de búsqueda tabú). A su vez el enfoque de algoritmo

genético degrada la calidad de la solución para el problema con

respecto al enfriamiento simulado, de acuerdo al porcentaje

mostrado.

Es importante resaltar que en una ocasión, dos de los enfoques

desarrollados encontraron la misma solución para la función

objetivo del problema.

En la Fig 1. Se muestra el tiempo computacional consumido

por cada uno de los enfoques desarrollados.

Page 29: Revista SIRIO FUSM

Fig. 1. Tiempo de ejecución obtenido para el problema de 40 trabajos.

De acuerdo a la Fig. 1, cuando se secuencia la máquina

mediante alguna de estas metaheurísticas los enfoques toman

tiempos computacionales muy bajos (teniendo en cuenta un

número de 500.000 iteraciones para cada uno de ellos). Al

comparar los enfoques, los tiempos computacionales están

ligados a la dificultad del algoritmo; siendo esto más apreciable

para el algoritmo genético. La implementación de este se hace

más larga que cuando se secuencien por los otros enfoques

realizados. Se puede apreciar en la Fig. 1 que no existen grandes

diferencias entre el tiempo computacional requerido para la

ejecución del enfoque de búsqueda tabú y el del enfriamiento

simulado.

VIII. CONCLUSIONES

A pesar que el porcentaje de error relativo es un poco alto,

tener un resultado sub-óptimo en problemas de tipo NP-Hard, en

un tiempo computacional razonable, se convierte en un elemento

importante para la toma de decisiones. Es por esto que las

técnicas heurísticas superan notablemente a los métodos de

búsqueda exhaustiva (Enumera todas las soluciones para escoger

la mejor entre ellas).

El algoritmo que está mejorando más rápidamente la función

objetivo es el enfoque de búsqueda tabú. En gran parte se debe

porque la selección de soluciones está guiada por la memoria de

corto plazo; al contrario de recocido simulado, que selecciona

peores soluciones basados en una probabilidad, llegando en

algunos casos a bucles en la búsqueda; sin embargo, se debe

considerar la implementación de memoria de largo plazo que

según estudios puede mejorar más aún la diversidad del espacio

de soluciones y por ende encontrar soluciones mas próximas al

óptimo.

Se deben encontrar mejores mecanismos de generación de las

soluciones iniciales, ya que las obtenidas con el método aleatorio

parece ser que son muy lejanas al óptimo, lo cual puede significar

que se comienza a buscar por zonas no apropiadas y esto hace

que la minimización de la función objetivo tarde bastantes

iteraciones para mejorar. Se debe pensar en utilizar reglas de

despacho u otras heurísticas de búsqueda local para generarlas.

El mecanismo de selección (Ruleta) utilizado para el algoritmo

genético debe ser modificado, ya que está permitiendo que pasen

individuos de poca calidad con una alta probabilidad, lo cual

influye notablemente en la calidad de la población en cada

generación; adicionalmente, se debe implementar la reproducción

como mecanismo principal de generación de individuos,

combinando individuos de buenas características en la población

y, adicionalmente, especificar una probabilidad para mutar los

individuos generados. Según estudios realizados por autores

especificados en el estado del arte, estos enfoques mejoran

notablemente la calidad de las soluciones obtenidas.

Trabajos futuros

De acuerdo a la literatura se encontró que los algoritmos

genéticos son los más recurrentes para solucionar el problema de

tardanza total ponderada en el modelo básico. Dada esta

recurrencia en las investigaciones recientes para este problema,

es importante que se realice un análisis comparativo utilizando los

tres enfoques más ‗tradicionales‘ en las metaheurísticas. Estos

son, los empleados en el presente trabajo mediante técnicas de

estadística avanzada, como es la herramienta de diseño

experimental, utilizando parámetros en los algoritmos diseñados

que permitan obtener numéricamente y de manera significativa,

algunos de los efectos dados por elementos como: el número de

iteraciones y número de vecinos en la calidad de solución para el

problema.

La pregunta ¿cuál es el tamaño idóneo para un vecindario?

parece no tener una respuesta clara, dado que intuitivamente se

puede pensar que las poblaciones pequeñas corren el riesgo de

no cubrir adecuadamente el espacio de búsqueda, mientras que

trabajar con poblaciones de gran tamaño puede acarrear

problemas asociados al gran costo computacional. Por tanto, un

aspecto importante para desarrollar en trabajos futuros es la

parametrización de los enfoques de solución desarrollados.

Se proponen explorar otras técnicas metaheurísticas como:

colonia de hormigas y bandadas de aves o bancos de peces, para

el problema de minimizar la tardanza total ponderada, y

compararla con los enfoques ya desarrollados (con respecto a la

calidad de la función objetivo y el tiempo computacional requerido

para obtener una secuencia óptima o subóptima del problema).

Tambien se proyecta el generar soluciones para el problema

mediante los enfoques desarrollados en este artículo,

considerando otras medidas de cumplimiento que contribuyan a

desarrollar planes eficaces y un valor agregado diferenciador para

las necesidades de las diferentes industrias de manufactura.

REFERENCIAS

[1] E. Lawler, A Pseudopolynomial Algorithm for Sequencing Jobs to Minimize Total Tardiness. Annals of Discrete Mathematics,vol 1,1977.

[2] J.K. Lenstra, A.H.G. Rinnooy Kan, and P. Brucer. Complexity of Machine Scheduling Problems. Annals of Discrete Mathematics, Vol 1, pp.343-362, 1980.

[3] C.N. Potts, and L.N. Van Wassenhove. A branch and bound algorithm for total weighted tardiness problem. Operations Research,1985.

[4] T.S. Abdul-Razaq , C.N. Potts , and L. N. Van Wassenhove, A survey of algorithms for the single machine total weighted tardiness scheduling problem, Discrete Applied Mathematics, Vol.26, pp.235-253, Mar. 1990.

[5] N. Potts, and L.N. Van Wassenhove. Single Machine Tardiness Sequencing Heuristics. IIE Transactions, Vol. 23, pp.346-354,1991.

[6] B. Alidaee, and K.R. Ramakrishnan. A computational experiment of covert-au class of rules for single machine tardiness scheduling problem. Computers industrial engineering, 1996.

[7] P.A Huegler, and F.J. Vasko. A performance comparison of heuristics for the total weighted tardiness problem. Gran Bretaña: Computers industrial engineering, pp. 753-767, 1997.

Tiempo de ejecución

0

100000

200000

300000

400000

500000

600000

1 2 3 4 5

Búsqueda tabu

Algoritmo genético

Enfriamiento simulado

Page 30: Revista SIRIO FUSM

[8] R.K, Congram, C.N. Potts, and S.L Van de Velde. An Iterated Dynasearch Algorithm for the Single-Machine Weighted Tardiness Problem. Informs Journal on Computing, vol.14, 2002.

[9] A. Bauer, B. Bullnheimer, R. Hartl, F. RICHARD, and C. Strauss. Applying ant colony optimization to solve the single machine total tardiness problem. Austria: Adaptative information systems and modeling in economics and management science. reporte 42, 1999.

[10] P.M. Franca, A. Mendes, and P. Moscato. A memetic algorithm for the total tardiness single machine scheduling problem. European Journal of Operational Research, vol.132, 2001.

[11] I. Borgulya. A cluster-based evolutionary algorithm for the single machine total weighted tardiness scheduling problem. Journal of computing and information technology. vol.3, pp.211-217, 2002.

[12] N.L. Mohamed,A. Abdelrahman, and S. Ramaswany. A genetic algorithm for the single machine total weighted tardiness problem. IEEE, 2003.

[13] R. Maheswaran, and E.S.G. Ponnambalam. An investigation on single machine total weighted tardiness scheduling problems. Londres: International Journal Adv Manufacturing Technology, vol.22, pp.243-248, 2003.

[14] E. Rodriguez, D. Carmona, L.F. Moreno, F.J Diaz,G.E Peña, and C. Cárdenas. Solución de un Problema de la Tardanza Total Ponderada en el Modelo Básico, Usando Un Algoritmo De Búsqueda Tabú. Revista Iberoamericana de Sistemas, Cibernética e Informática, 2004.

[15] A. Grosso, F. Della Croce, and R. Tadei. An enhanced dynasearch neighborhood for the single machine total weighted tardiness problem. Operations Research letters. vol.32, pp.68-72, 2004.

[16] R. Maheswaran, and E.S.G. Ponnambalam. An intesive search evolutionary algorithm for single-machine total weighted tardiness problem. International Journal Adv Manufacturing Technology, vol.26, pp.1150-1156, 2005.

[17] U. Bilge, M. Kurtulan, and F. Kirac. A tabu search algorithm for the single machine total weighted tardiness problem. European Journal of Operational Research. vol.176, pp.1423-1435, 2007.

[18] P. Araya,P. Silva, and P. Palominos. A new greedy heuristic for the single machina total weighted tardiness problem. Chile: 19th International Conference on Production Research, 2007.

[19] A. Colak, B. Arife, and A. Burakkeha. Interval-indexed formulation based heuristic for single machine total weighted tardiness problem. Computers & Operations Research. vol.36, pp.2122-2131, 2009.

[20] L.T Xianpeng Wang. A population based variable neighborhood search for the single machine total weighted tardiness problem. Computers & Operations Research. vol.36, pp.2105-2110, 2009.

[21] F. Glover, and M. Laguna Tabu search. Kluver academia publishers, 1997. [22] D. Goldenberg. Genetic algorithms in search, optimization and machine

learning. Addison-Wesley, Reading, MA. 1989 [23] J.P. Caballero, G. Mejia. Redes de petri y algoritmos genéticos, una

propuesta para la programación de sistemas de manufactura flexible. Bogotá: Revista Ingeniería y Universidad. Pontificia Universidad Javeriana, vol.10, 2006.

[24] S. Kirkpatrick, C.D. Gelatt, and M.P VECCHI. Optimization by simulated annealing. Science, vol.220, pp.671-680, 1983.

Page 31: Revista SIRIO FUSM

Resumen—La creación de un modelo conceptual permite resumir y modelar de manera más clara y concisa los aspectos que tienen más relevancia a la hora de preferir un medio de transporte como lo es la bicicleta, este documento presenta las variables críticas para la implantación de la bicicleta como medio de transporte en la ciudad de Bogotá.

Palabras clave — Modelo conceptual, Estructura organizacional, Bicicleta.

I. INTRODUCCIÓN

a movilidad es un tema que ocupa y preocupa a los

mandatarios de las principales ciudades de Colombia y en

especial a la ciudad de Bogotá; por ser esta la que concentra un

mayor número de personas y un principal centro de negocios del

país. Es por esto, que esta investigación fue encaminada a

generar una propuesta, a partir de un modelo conceptual, que

genere compromiso y responsabilidades a los diferentes actores

que guían el rumbo de la ciudad, para que a partir del uso de la

bicicleta como medio de transporte de las personas, se contribuya

a mejorar la movilidad en la ciudad y, el cuidado y conservación

del medio ambiente en la misma.

El modelo propuesto, identifica una estructura organizacional

de actores relevantes para la consecución de la propuesta, sus

responsabilidades y compromiso con el mismo, para que se

gestionen políticas que promuevan, generen espacios y regulen el

uso de la bicicleta como transporte de las personas al interior de

la ciudad.

II. MODELO CONCEPTUAL PARA EL TRANSPORTE EN BICICLETA (TB)

La construcción de ciclorrutas para fomentar el uso de la

bicicleta no garantiza el aumento de los usuarios, es necesaria la

combinación de estrategias que trabajen de manera conjunta [1].

En el caso de Bogotá, se corren los riesgos de pérdida en la

inversión ya realizada para la movilidad en bicicleta. La gestión

del tráfico, las garantías de seguridad en las intersecciones, la

vigilancia continua y los estacionamientos son factores que

repercuten de manera positiva al aumento de la movilidad en

bicicleta.

La construcción de los siguientes modelos se fundamentó en el

análisis de entrevistas realizadas, la situación de algunos

países y la situación actual de Bogotá. Es importante resaltar

que además de la información, la construcción de los modelos

tuvo como base la metodología Suave de Peter Checkland, la cual

se aplicó en su totalidad a excepción del último paso, ya que era

imposible de realizar debido a las condiciones del proyecto.

Fig. 1. Modelo Propuesto para el Transporte en Bicicleta.

El nodo de la izquierda y el inferior representan los beneficios y

aspectos necesarios para el transporte en bicicleta, el nodo del

centro y el de la derecha corresponden a las organizaciones

encargadas de gestionar dichos aspectos y el nodo superior el

factor fundamental y decisivo para el ciclo; EOTB responde a

―Estructura organizacional para el transporte en bicicleta‖.

Adicionalmente, el modelo contempla a la ciudadanía en

general como los autores implícitos en el modelo y reconoce la

existencia e impacto de factores externos como: Topografía,

clima, desastres naturales, grupos al margen de la ley.

III. DINÁMICA DEL MODELO CONCEPTUAL

Gestión pública

Esta es la actividad primordial para la realización de cualquiera

de las propuestas generadas a partir por este modelo.

La gestión permite comprometer a los dirigentes políticos,

gubernamentales y el distrito en general para que en sus

programas de gobierno se establezca de manera continua el

apoyo, promoción, divulgación, financiación, aceptación, creación

de programas educativos-ambientales y la reingeniería en los

procesos de avance y capacitación en materia legal, en el

mantenimiento y políticas que favorezcan el Transporte en

Bicicleta (TB).

L

Modelo Conceptual para el Transporte en Bicicleta de la Ciudad de Bogotá

Diego F. Suero, Docente Investigador, Ingeniería Industrial

Page 32: Revista SIRIO FUSM

Estas acciones de coordinación son realizadas en primera

instancia por la organización de usuarios hacia los líderes

políticos y luego de la conformación de la Estructura

Organizacional para el Transporte en Bicicleta (EOTB), se

realizará de manera conjunta entre las dos entidades.

Históricamente, la generación de proyectos para el transporte

no motorizado, ocurren debido a que alguien con poder político,

dinero y perseverancia hace que sucedan. El mejor ejemplo es la

construcción de las ciclorrutas de Bogotá, como promesa de la

campaña del Alcalde Enrique Peñalosa, quien estaba totalmente

convencido de la importancia de tales medidas. De igual forma, la

peatonalización del centro de Curitiba, Brasil, también fue

apoyada por un Alcalde iluminado. La priorización del uso de

bicicletas en China fue una decisión de altos niveles del gobierno

nacional y del partido, al igual que hoy las restricciones al uso

también son impuestas por el gobierno [2].

A. Creación y puesta en marcha de la EOTB: Estructura organizacional para el transporte en bicicleta.(Pública).

Organización encargada de coordinar con todas las entidades

relevantes, actividades para el correcto funcionamiento y logística

del sistema. Esta organización estaría financiada por recursos del

estado y sus integrantes podrían ser personas que ya pertenecen

a cada una de las entidades del distrito, quienes conocen y

manejan de alguna forma los temas relacionados con la movilidad

en bicicleta.

Esta organización de carácter administrativo se encargará de

todos los aspectos necesarios legales y normativos para la

movilidad en bicicleta.

Realización de estudios:

movilidad, accidentalidad

Realización de unanormatividad específica para el

transporte en bicicleta

Control y vigilancia

del sistemaDiseño e implementación de

infraestructura y señalización parael transporte en bicicleta

Recopilación de informaciónde funcionamiento del

sistemaMonitoreo evaluación y

valoración de lainformación

Realización decorrecciones y mejoras al

sistema

Conectividad e integración

modal con otros sistemas

Aprobación y asignación derecursos para la conformación

de la EOTB

Fig. 2. Modelo Propuesto para la EOTB

B. Creación y puesta en marcha de una organización privada de usuarios y partidarios de la bicicleta.

Organización sin ánimo de lucro pero con patrocinios de

empresas privadas y actividades realizadas por la misma. Su

objetivo fundamental es ejercer presión política hacia las

entidades gubernamentales y lideres políticos para aceptación y

creación de programas y proyectos, que favorezcan el transporte

en bicicleta.

Estas acciones se realizan por medio de la coordinación de un

significativo grupo de afiliados, que tienen en común el deseo de

establecer un papel activo en el régimen de mercadeo, servicio de

calidad, y confiabilidad para este sistema de transporte. Entre los

afiliados deberían estar personas influyentes, líderes comunales,

personajes reconocidos públicamente, con el fin de lograr

mecanismos de presión más efectivos.

Para poder ejercer influencia política, es importante reconocer

que ésta organización requiere de ventanas de oportunidad. Estas

se traducen en buscar el momento político oportuno y crear las

necesidades que beneficiarían a las dos partes; políticos y

proponentes. De lo contrario sus objetivos se quedarían

únicamente en intenciones [3].

Es importante que la organización cuente con un campeón de

proyecto, que lidere las acciones del un equipo de profesionales

que la componen como lo deberían ser: consultores de

planificación internacional, ingenieros civiles, un socio local con

influencias y contactos dentro del gobierno, una ONG local,

universidad o compañía de planificación con experiencia de

trabajo y estudio de la población [2].

En algunos países, la presión de los ciclistas, ONG y agencias

internacionales de financiamiento han probado ser vitales para

ejercer presión ante las necesidades del transporte en bicicleta.

Las instalaciones para bicicletas en muchas de las grandes

ciudades de Estados Unidos, Europa occidental, Europa Central

(Carcovia, Budapest, entre otros), en Bangkok y la espectacular

mejora de instalaciones peatonales en Seúl, claramente fueron

producto de la presión aplicada al gobierno por las ONG y

federaciones de ciclistas. En Accra y Tamale (Ghana), en

Tanzania, Marakina (Manila/Filipinas), Lima (Perú), Gdansk

(Polonia), Yogyakarta (Indonesia), y Santiago de Chile, se dio un

gran empuje a nuevas instalaciones de bicicleta y otros medios no

motorizados por parte de organizaciones internacionales, tales

como el Banco Mundial o la UNDP, y generalmente por individuos

más específicamente comprometidos dentro de esas instituciones

[2].

Otros ejemplos son el de Maryland Bicycle Advisory Committee

(BAC), quienes han establecido trabajos cercanos con varios

miembros del estado en la asamblea y el senado [4]. Otro caso es

el de Bicycle Victoria en Australia, la cual ha promovido una

extensa y completa red de ciclorrutas gracias a la presión de sus

42000 miembros [5]. También, el de la Asociación de Ciclistas

Urbanos de Buenos Aires (ACU), que ha dirigido reuniones, foros,

seminarios y eventos especiales, lleva a cabo tres paseos

sociales semanales, publica una hoja informativa y un manual

sobre la bicicleta, realiza presentaciones en las escuelas, conduce

estudios en temas como estacionamientos para bicicletas e

integración con los trenes y proporciona recomendaciones

detalladas al gobierno municipal [6].

Page 33: Revista SIRIO FUSM

Conformación de laorganización con losusuarios y activistas

Definición de objetivos yactividades de la

organización

Realización de la sensibilización yapropiación de la bicicleta como

medio de transporte

Diseño de estrategias

de promoción

Realización de campañaspublicitarias en medios de

comunicaciónEstablecimiento de una red decontactos de promoción del

sistema

Realización de actividades

y eventos de financiación

Realización de una gestión detipo político que facilite la

promoción del sistema

Monitoreo, evaluación y

acciones correctivas

Segmentar el grupo de interésal cual se promocionará el

sistema

Coordinación con

otras entidades

Fig. 3. Modelo propuesto para la organización privada

C. Gestión de beneficios para el sistema; infraestructura y seguridad.

Entre los beneficios para el sistema, uno de los más relevantes

para impulsar el uso de la bicicleta como medio de transporte es

la creación y/o adecuación de una infraestructura adecuada para

la bicicleta; esto incluye, señalización, ciclorrutas, separadores,

puentes, iluminación, entre otros y su respectivo mantenimiento.

Como segunda medida, igualmente importante, es la garantía de

la seguridad en el sistema; seguridad ante la delincuencia y ante

el tráfico vehicular que amenaza los desplazamientos de los

ciclistas.

Para establecer una correcta infraestructura se tiene en cuenta;

Planeación y diseño, Localización y Acceso.

Planeación y diseño

El aprovechamiento de los nuevos diseños y tecnologías se

basa en los lineamientos que tienen en cuenta los medios de

transporte alternativos.

Localización

La ubicación esta en función del espacio urbano y la población.

Acceso

Para la coordinación de los componentes del sistema éstos

deben ser viables.

Por otro lado, las acciones en pro de difundir la importancia del

uso de la bicicleta, tanto en campañas publicitarias como en

campañas educativas permanentes. Programas en los colegios

donde se implemente en las asignaturas, la relevancia de la

movilidad en bicicleta y su adecuada forma de hacerlo. Dar a

conocer la cobertura del sistema y las ventajas que este tiene.

En los países más avanzados donde las ONG tienen acceso a

más recursos, es el gobierno el que en reconocimiento de la

importancia de estos temas para la ciudad, ahora de manera más

común que antes, inicia campañas de sensibilización pública

sobre transporte urbano sostenible [6].

¿Cómo funciona el ciclo?

La creación de la organización de usuarios es el comienzo para

poder ejercer influencia a los dirigentes, por lo tanto, se convierte

en gestión política para obtener beneficios hacia el TB. Esta

gestión política permitirá crear la nueva organización llamada la

EOTB quien a su vez será la encargada de realizar las actividades

de promoción, formación y proporcionar beneficios a los usuarios

de la bicicleta.

Al existir una conciencia y actitud de cambio ciudadana, sobre

la necesidad de la bicicleta, los usuarios exigirán al gobierno más

garantías y beneficios para el TB, retornando nuevamente, en

cuanto a la llamada gestión política (infraestructura y seguridad).

Al obtener los beneficios del sistema, estos serán regulados

por las dos organizaciones, que a su vez se relacionan con el

usuario, a fin de conocer sus necesidades o para ofrecer los

servicios de esta.

Se inicia el ciclo en su proceso nuevamente, cuando la

organización del usuario continúa con sus actividades para ejercer

gestiones políticas, pero ahora también existe una interacción con

la EOTB, de esta manera, el ciclo continúa generando

confiabilidad y eficacia del sistema en sus condiciones necesarias

para facilitar el TB.

IV. OBSTÁCULOS DEL PROYECTO

TABLA 1.

IDENTIFICACIÓN DE OBSTÁCULOS QUE INCIDEN EN EL DESARROLLO DEL

PROYECTO

Funciones de las

instituciones

gubernamentales

Vigilancia y

control logístico

Política ambiental y

social

Falta de voluntad

política

Intereses

creados y/o

particulares

Falta de claridad

en el marco legal y

jurídico

Normatividad y

legislación que

limita la

implementación de

la propuesta

Indiferencia y

desinterés de las

entidades

gubernamentales

ante la creación de

la organización.

Inadecuada

implementación

de la

infraestructura

La situación

actual del país

en la técnica y

tecnología

Indiferencia y

desinterés de los

usuarios y

ciudadanos ante

la creación de la

organización.

Insuficiencia

del modelo

conceptual o

incapacidad para

desarrollar

Dependencia y

Apego hacia los medios

de transporte

motorizado.

Desconocimiento de

las consecuencias del

impacto ambiental a

corto y largo plazo

Desinterés sobre la

responsabilidad social y

ambiental para

incrementar un

desarrollo sostenible.

Falta de inversión de

entes privados y

públicos.

Page 34: Revista SIRIO FUSM

Las

ensambladoras

multinacionales de

autos son serios

obstáculos para

lograra el punto de

equilibrio entre

oferta y demanda

vial.

una(s) de las

determinantes.

V. CONCLUSIONES

La EOTB se encargará de la inserción de una nueva política de

movilidad para el transporte en bicicleta, de manera que deberá

proveer no sólo infraestructura y mantenimiento, sino alternativas

de solución a los problemas, creando una estructura de apoyo

para el transporte en bicicleta [7]. Esta organización, debe

construirse en bases tan sólidas como la de los vehículos

motorizados, así garantizaría su permanencia durante años [8].

Si no existe gestión política no es posible realizar proyectos

que puedan beneficiar el transporte en bicicleta. Esa gestión

política se basa en la presión ejercida por las masas.

Es vital que la organización privada no realice, promocione o

actué en favor de campañas políticas para favorecer candidatos o

partidos políticos de alguna índole. Esto afectaría de manera

radical los objetivos planteados y su neutralidad como una

organización de usuarios y partidarios de la bicicleta.

La normatividad existente acerca de la bicicleta como medio de

transporte contemplada en la ley 769 de 2002 en el código

nacional de transito [9], no beneficia a los ciclistas, se refiere a

una serie de sanciones y represiones, pero no garantías para la

seguridad y transito de manera más eficiente de los usuarios,

además de la similitud con las normas para motocicletas.

Según algunos de los entrevistados, la obligatoriedad del casco

desmotiva el uso de la bicicleta. El argumento en contra es que a

las velocidades tan bajas y debido a la flexibilidad de este

vehículo, los riesgos son mínimos, a excepción de choques con el

tráfico automotor donde las colisiones podrían ser incluso

mortales y los costos adicionales que implica el mismo.

REFERENCIAS

[1] R. Stuven. ¿Y dónde quedaron las ciclovías? 2005 Enero 5 de 2005 [cited; Available from: http://ricardo-stuven.blogspot.com/

[2] W. Hook. Preservar y expandir el papel del transporte no motorizado. GTZ, Transport policy advice, Proyecto de sector "Transport policy advice", 2002.

[3] A. Ardila. Notas de clase, Planeación del transporte. 2005, Universidad de los Andes: Bogotá.

[4] R. Olken, et al. Guide to Bicycle Advocacy. 1999, Washington, DC: Bikes Belon Coalition Ltd.

[5] P. Mckay. Entrevistas. 2005, Victoria-transport institute: Bogotá [6] K. Fjellstrom. Acciones para mejorar el conocimiento público sobre

transporte urbano sostenible. GTZ, Transporte sostenible, proyecto de sector "Transport policy advice", 2000.

[7] A. Sirkis. Ciclovías Cariocas. in Seminario Internacional Ciclovías Unidas de las Américas. 2005. Bogotá.

[8] O. Hatch. European Experience in promoting increased bicycle use. in Encuentro Internacional sobre transporte urbano sostenible y uso de la bicicleta "comienza a rodar el cambio". 1998. Bogotá.

[9] STTB, Manual del usuario de la bicicleta, ed. D.t.d. pedagogía. 2005, Bogotá

Page 35: Revista SIRIO FUSM

Palabras claves—UML, Lenguajes de descripción de hardware, diseño estructural.

I. INTRODUCCIÓN

n la tendencia actual, los sistemas digitales y en general todos

los sistemas de tipo electrónico, son diseñados y simulados

usando herramientas asistidas por computador.

Los diseñadores han priorizado sus esfuerzos en adquirir la

mayor experiencia posible en el uso de estas herramientas y han

dejado de lado, de alguna forma el aspecto más importante en un

segundo plano, el diseño y la documentación del mismo.

Una opción para solucionar esta deficiencia es hacer uso de

una herramienta que en principio se creó con el fin de apoyar el

diseño de aplicaciones de software, pero que posteriormente

evoluciono para permitir su uso en cualquier área de la ingeniería,

esta herramienta es UML (por sus siglas en inglés, Unified

Modeling Language), la cual es un lenguaje que permite diseñar y

documentar de manera gráfica y textual aplicaciones de cualquier

tipo.

II. UML COMO HERRAMIENTA DE DISEÑO

El lenguaje de Modelamiento unificado (UML) fue creado con la

finalidad de tener una notación estándar, donde se combinan

notaciones provenientes desde el modelado orientado a objetos,

modelado de datos, modelado componentes y el modelado de

flujo de trabajo, con la participación de Grady Booch, Jim

Rumbaugh e Ivar Jacobson. Desde su publicación en 1995 ha

presentado varias versiones y actualmente se encuentra

disponible la versión 2.0 [15].

Se debe recordar que un modelo es una vista de un sistema

del mundo real, que describe completamente los aspectos del

sistema que son relevantes al propósito del modelo y a un

apropiado nivel de detalle, y un diagrama es una representación

gráfica de una colección de elementos de modelado. Un lenguaje

de modelado es aquel cuyo vocabulario y reglas se enfocan en la

representación conceptual y física de un sistema. La finalidad de

los diagramas es presentar diversas perspectivas de un sistema,

a las cuales se les conoce como modelo.

UML es un lenguaje estándar que es usado para visualizar,

especificar, construir y documentar los elementos de un sistema,

comprende tres tipos de bloques: los objetos que son

abstracciones de elementos del mundo real, las relaciones que se

encargan de unir estos objetos y los diagramas que agrupan

colecciones de objetos afines [17].

Los objetos en UML se clasifican en estructurales (nombres de

modelos), conductuales (partes dinámicas de los modelos), de

agrupación (partes orgánicas) y notacionales (partes explicativas).

Las relaciones por su parte pueden ser de dependencia,

asociación, generalización y realización.

Por otra parte los diagramas pueden ser: diagramas de clase,

de objetos, de casos de uso, de secuencia, de colaboración, de

estado, de actividad, de componentes o de despliegue.

Los sistemas siempre están soportados en una o varias

arquitecturas; la arquitectura es el juego de decisiones

significantes sobre: la organización de un sistema, la selección de

los elementos estructurales y sus interfaces, su conducta, la

colaboración entre estos elementos, la composición de los

elementos estructurales y conductuales al igual que el estilo

arquitectónico que guía esta organización. De igual forma UML al

ser un lenguaje estructurado esta soportado en una arquitectura

que se muestra en la figura 1.

VISTA LÓGICAVISTA DE

REALIZACIÓN

VISTA DE PROCESOS

VISTA DE DISTRIBUCIÓN

VISTA DE CASOS DE USO

Fig. 2. Arquitectura de UML.

III. EJEMPLO DE APLICACIÓN

Para demostrar la idea previamente expresada, se usará a

manera de ejemplo el diseño de un sistema lógico secuencial que

debe cumplir las siguientes características [6]:

Se desea diseñar el controlador de una máquina vendedora, la

cual dispensa barras de dulce a $700.

El controlador deberá tener las señales de entrada para indicar

el valor de la moneda ingresada ($100, $200 ó $500).

Adicionalmente son necesarias dos entradas adicionales para el

reloj y el reinicio del controlador.

El controlador responde con tres salidas: la salida del dulce,

por donde se dispensa una barra de dulce, más las salidas para el

cambio ($100, $200), cuando sea requerido.

La máquina permanecerá en reposo hasta que sea ingresada

una moneda, evento en el cual empezará a acumular el valor

correspondiente hasta completar por lo menos el valor del dulce.

Una vez acumulado el valor necesario se dispensará un dulce y

se dará el cambio correspondiente.

Para iniciar el proceso, se deben mencionar los diagramas que

se usarán en el diseño y especificación del controlador solicitado,

estos diagramas serán los diagramas de caso de uso (muestran

los requerimientos del controlador), diagrama de clases (muestra

E

Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones

Usando UML en el diseño de sistemas digitales

Page 36: Revista SIRIO FUSM

la interacción de las entidades que aportan a la solución del

problema), diagramas de secuencia (muestran la ordenación

temporal de los mensajes entre entidades), diagramas de

colaboración (muestran la relación estructural de las entidades) y

diagramas de estado (muestran los estados por los cuales pasa el

sistema para llevar a cabo su función).

A. Diagrama de Casos de Uso

Estos diagramas presentan la relación entre los usuarios del

sistema y las entidades internas que realizan una actividad

específica. Los nombrados usuarios no son necesariamente

personas, también pueden ser otros sistemas o subsistemas que

brinden información al sistema o hagan uso de los datos

generados en las salidas. Los diagramas se acompañan de una

descripción textual, que muestra el comportamiento de cada Caso

de Uso [13].

TABLA I

CASO DE USO – ACUMULAR VALOR

Nombre: Acumular valor

Propósito: Acumular el valor de las monedas ingresadas

hasta tener por lo menos el costo del dulce.

Descripción:

Cuando se activa la entrada correspondiente al valor de la

moneda ingresada, este valor se debe acumular.

Cuando el valor acumulado alcanza por lo menos el valor del

dulce, se activa la señal de control que permite dispensar el

dulce.

Si el valor acumulado es mayor al valor del dulce, se activa la

señal de control que permite realizar la devolución

correspondiente y se informa la cantidad a devolver.

Precondiciones:

El sistema esta adecuadamente configurado y ha sido

inicializado.

El sistema de reconocimiento de monedas ha reconocido e

identificado el valor de la moneda ingresada.

Poscondiciones:

La señal que permite dispensar el dulce se activa cuando se

acumula el valor correspondiente.

La señal que permite devolver el cambio correspondiente se

activa si hay lugar a devolución.

Junto con la señal de devolución de cambio se indica el valor

a devolver.

Otras restricciones:

Sistema de reconocimiento de monedas

Acumular valor Deposito de dulces

Caja

Controlador de Máquina Vendedora

1 1

«uses»

«uses»

Fig. 3. Diagrama de Casos de Uso.

B. Diagramas de Clase.

Los diagramas de clase presentan las descripciones de

conjuntos de objetos del sistema, con sus relaciones

estructurales. Se incluyen las definiciones para atributos y

operaciones de cada conjunto de objetos. Estos diagramas

también son la base para los diagramas de componentes y los

diagramas de despliegue.

Los diagramas de clase son usados para visualizar, especificar,

documentar y construir sistemas ejecutables aplicando ingeniería

directa e inversa [16].

Fig. 4. Diagrama de Clases

C. Diagrama de Secuencia

Los diagramas de secuencia destacan la ordenación temporal

de los mensajes entre las entidades que participan en el proceso,

ofreciendo una señal visual clara del flujo de control a lo largo del

tiempo [16].

Fig. 5. Diagrama de Secuencia

D. Diagrama de Colaboración.

Un diagrama de colaboración destaca la organización de los

objetos que participan en una interacción, los enlaces que los

conectan y los mensajes que intercambian. Los diagramas de

colaboración se destacan por mostrar el camino y la ordenación

temporal de los mensajes usando números de secuencia [16].

Page 37: Revista SIRIO FUSM

Fig. 6. Diagrama de Colaboración

E. Diagrama de Estados.

Los diagramas de estados, representan los diferentes estados

del sistema y cada uno representa la ejecución de una acción. Los

estados pueden ser interrumpidos y se considera que invierten

algún tiempo en completarse [16].

Fig. 7. Diagrama de Estados

F. Implementación del código

Teniendo como referencia y soporte cada uno de los diagramas

previamente presentados, se puede realizar la codificación del

programa que cumpla con los requerimientos planteados. En el

momento de realizar la codificación, en este caso usando lenguaje

VHDL, es fácil apreciar la declaración de la clase con sus

atributos (ENTITY), y la declaración de las operaciones que

realiza la clase (ARQUITECTURE) [6].

---------------------------------------------------------------------------

LIBRARY ieee;

USE ieee.std_logic_1164.all;

---------------------------------------------------------------------------

ENTITY CM1 IS

PORT (clk, rst : IN STD_LOGIC;

in_100, in_200, in_500 : IN BOOLEAN;

d_dulce, c_100, c_200 : OUT STD_LOGIC);

END CM1;

---------------------------------------------------------------------------

ARCHITECTURE cmv OF CM1 IS

TYPE state IS (s_0, s_100, s_200, s_300, s_400, s_500,

s_600, s_700, s_800, s_1000);

SIGNAL p_state, n_state : STATE;

BEGIN

----------------- GENERAL PERFORMANCE -----------------

PROCESS (rst, clk)

BEGIN

IF (rst = '1') THEN

p_state <= s_0;

ELSIF (clk'EVENT AND clk = '1') THEN

p_state <= n_state;

END IF;

END PROCESS;

----------------------- BRING UP COUNT -----------------------

PROCESS (p_state, in_100, in_200, in_500)

BEGIN

CASE p_state IS

WHEN s_0 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_100;

ELSIF (in_200) THEN n_state <= s_200;

ELSIF (in_500) THEN n_state <= s_500;

ELSE n_state <= s_0;

END IF;

WHEN s_100 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_200;

ELSIF (in_200) THEN n_state <= s_300;

ELSIF (in_500) THEN n_state <= s_600;

ELSE n_state <= s_100;

END IF;

WHEN s_200 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_300;

ELSIF (in_200) THEN n_state <= s_400;

ELSIF (in_500) THEN n_state <= s_700;

ELSE n_state <= s_200;

END IF;

WHEN s_300 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_400;

ELSIF (in_200) THEN n_state <= s_500;

ELSIF (in_500) THEN n_state <= s_800;

ELSE n_state <= s_300;

END IF;

WHEN s_400 =>

d_dulce <= '0';

Page 38: Revista SIRIO FUSM

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_500;

ELSIF (in_200) THEN n_state <= s_600;

ELSE n_state <= s_400;

END IF;

WHEN s_500 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_600;

ELSIF (in_200) THEN n_state <= s_700;

ELSIF (in_500) THEN n_state <= s_1000;

ELSE n_state <= s_500;

END IF;

WHEN s_600 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '0';

IF (in_100) THEN n_state <= s_700;

ELSIF (in_200) THEN n_state <= s_800;

ELSE n_state <= s_600;

END IF;

WHEN s_700 =>

d_dulce <= '1';

c_100 <= '0';

c_200 <= '0';

n_state <= s_0;

WHEN s_800 =>

d_dulce <= '1';

c_100 <= '1';

c_200 <= '0';

n_state <= s_0;

WHEN s_1000 =>

d_dulce <= '0';

c_100 <= '0';

c_200 <= '1';

n_state <= s_800;

END CASE;

END PROCESS;

END cmv;

---------------------------------------------------------------------------

Finalmente se puede apreciar el bloque funcional del

controlador creado para la máquina vendedora de dulces, en él se

observan los atributos declarados en el diseño.

clk

rst

in_100

in_200

in_500

d_dulce

c_100

c_200

SM1

inst

VCCclk INPUT

VCCrst INPUT

VCCin_100 INPUT

VCCin_200 INPUT

VCCin_500 INPUT

d_dulceOUTPUT

c_100OUTPUT

c_200OUTPUT

Fig. 8. Diagrama funcional del controlador diseñado

IV. APORTES DE LA TÉCNICA EMPLEADA

El uso de herramientas asistidas por computador junto con

UML en la especificación, diseño y documentación de sistemas

digitales permite tener una visión clara del comportamiento y de la

forma como se relacionan las diferentes partes que lo componen.

De la misma forma permite la creación de entidades

especializadas en una serie de actividades que ayudan a darle

más orden al sistema.

El proceso realizado de esta forma ofrece además la ventaja de

dejar bien documentado el diseño, de tal forma que permite

identificar fácilmente los posibles errores y realizar los correctivos

necesarios antes de codificar o implementar el diseño.

Cualquier modificación que se realice a partir del diseño inicial,

es igualmente, fácil de realizar y de documentar, permitiendo así

tener un mejor manejo de versiones del diseño.

V. CONCLUSIÓN

UML como lenguaje de referencia ofrece una serie de guías y

recomendaciones que pueden ser consideradas al momento de

realizar el diseño de un sistema digital, obteniendo una solución

acorde a unas necesidades específicas y con unos costos de

implementación menores, teniendo en cuenta los tiempos

empleados en el proceso.

Al estar el diseño especificado a partir de UML permite reducir

los tiempos de trabajo, debido a que antes de llevar a cabo la

codificación e implementación, ya se tiene claridad sobre el

comportamiento del sistema y evitando caer en situaciones de

prueba y error, que ocasiona en muchas ocasiones que el

producto final sea un conjunto parches que solucionan diferentes

problemas.

El tener los diferentes diseños debidamente documentados,

permite realizar la reutilización de código en diferentes proyectos,

actividad que es poco común en el diseño de sistemas digitales,

debido a la falta de cultura de documentación de los procesos.

REFERENCIAS

[1] E. Börger and R. Stärk, ―Abstract State Machines – A Method for High-Level System Design and Analysis‖, Springer, 2003, pp. 16-27.

[2] Department of Defense, ―Documentation of Digital Digital Electronic Systems with VHDL‖, DoD, 1996, ch. 3.

[3] IEEE Standard VHDL Lenguage Reference Manual, IEEE Standard 1076, 2002.

[4] H. Bhatnagar, ―Advanced ASIC Chip Synthesis Using Synopsys, Design Compiler, Physical Layer and Prime Time – Second Edition‖, Kluwer Academic Publishers, 2002, ch 3.

[5] D. L. Perry, ―VHDL: Programming by Example – Four Edition‖, McGraw Hill, 2002, pp. 15-105.

[6] V. A. Pedroni, ―Circuit Design with VHDL‖, MIT Press, 2004, pp. 202-208 [7] B. Cohen, ―VHDL Coding Styles and Methodologies …an In-Depth Tutorial‖,

Kluwer Academic Publishers, 1995, pp. 1-26. [8] P. P. Chu, ―RTL Hardware Design Using VHDL Coding for Efficiency,

Portability and Scalability‖, John Wiley & Sons, Inc., 2006, pp. 23-66. [9] P. Boulet, ―Advances in Design and Specification Languages for SoCs‖,

Springer, 2005, pp. 161-178. [10] G. Martin and W. Müller, ―UML for Soc Design‖, Springer, 2005, pp. 1-36. [11] E. Villar and J. Mermet, ―System Specification and Design Languages: Best

of FDL´02‖, Springer, 2003, pp. 107-141. [12] B. P. Douglass, ―Real Time UML Workshop for Embedded Systems‖,

Newnes, 2006, pp. 1-33. [13] B. P. Douglass, ―Real Time UML: Advances in the UML for Real-Time

Systems – 3rd Edition‖, Addison-Wesley Professional, 2004, ch. 1-3.

Page 39: Revista SIRIO FUSM

[14] V. K. Madisetti and C. Arpikanondt, ―A Platform-Centric Approach to System-On-Chip (SOC) Design‖, Springer, 2004, pp. 41-50, 83-182.

[15] G. Booch, I. Jacobson and J. Rumbaugh, ―The Unified Modeling Language User Guide‖, Addison Wesley, 1998.

[16] G. Booch, I. Jacobson and J. Rumbaugh, ―The Unified Modeling Language Reference Manual – Second Edition‖, Addison Wesley, 2004.

[17] T. Pender, ―UML Bible‖, John Wiley & Sons, 2003.

Page 40: Revista SIRIO FUSM
Page 41: Revista SIRIO FUSM

Resumen— El incremento de la producción nacional de maíz amarillo

tecnificado es un objetivo que debe cumplirse y así llegar a la

autosostenibilidad dentro de la cadena de cereales, alimentos

balanceados para animales, avicultura y porcicultura; en general, en

todas las industrias en las cuales se utilice el maíz amarillo. Es preciso

que se detenga la dependencia colombiana sobre Estados Unidos o

algún otro país del que se tenga que importar la gran mayoría del maíz

amarillo que se demanda y, más aún, al precio dictado por sus propios

mercados. Es por esto, que en este documento se diagnostican los

esfuerzos realizados por el Gobierno Colombiano entre los años 2002 y

2006 con dirección al incremento de la producción de este cereal y se

determinan las causas del por qué es baja, analizando el mercado desde

diferentes puntos de vista y con distintas herramientas, para luego

elaborar una estrategia nacional que va dirigida al aumento significativo

del maíz amarillo en Colombia y la reducción de costos de producción.

Esta estrategia incluye a todos los actores del mercado, manteniendo un

estrecho lazo de colaboración y con responsabilidades específicas para

cada uno.

Palabras claves — Cadena productiva, Diagnóstico, Estrategia,

Reforma agraria.

I. INTRODUCCIÓN

L maíz amarillo es un producto agrícola fundamental y

tradicional en la canasta familiar del pueblo colombiano. El

principal uso que se le da al maíz amarillo en Colombia está

vinculado a éste último, la elaboración del ABA (Alimento Básico

para Animales), destinándose el 65% del cereal que se consume

en el país. Además, es la principal materia prima que constituye el

ABA, representando el 49% de toda la mezcla, es decir, que los

factores que impacten sobre la oferta, calidad o precio del maíz

amarillo, tendrán repercusiones directas en el mercado de los

pollos, gallinas, huevos y carne de cerdo [1].

La demanda colombiana del producto ha ido en incremento a

través de los años. Para el año 2006 la demanda total nacional de

maíz amarillo se calculó en 4.1 millones de toneladas, cifra que

aumentó en el 74% desde el 2000, año en el que se presentó una

demanda de 2.35 millones de toneladas. La producción

nacional de este cereal también ha estado en ascenso a través

de los años, aunque en cantidades menores que la demanda. En

el año 2000 la totalidad de la producción de maíz amarillo fue de

0.960109 millones de toneladas, para luego incrementarse en

53% en el año 2006 cuando se produjo 1,473 millones de

toneladas [2]. El resto de la demanda tuvo que ser satisfecha

mediante la importación.

De la totalidad de las importaciones colombianas de maíz

amarillo, el 88.9% proviene desde EE.UU [2], lo cual conduce a

afirmar que Colombia es sumamente dependiente de Estados

Unidos en cuanto a oferta de maíz amarillo se refiere, y por lo

tanto cualquier situación que se presente en el mercado del país

del norte tendrá un inevitable efecto directo en el colombiano.

EE.UU. es el principal productor de maíz amarillo en el mundo,

y su oferta maicera se destina al consumo nacional, a la

exportación y a la producción de bioetanol que cada vez demanda

más maíz [3]. Esto último, ha traído como consecuencia el

incremento de la producción del cereal en EE.UU. y además un

incremento en el precio.

II. MARCO TEÓRICO

A. Análisis P.E.S.T.A.

Es también conocido como Análisis S.T.E.E.P. Esta

herramienta permite hacer un diagnóstico detallado sobre un

mercado combinando 5 factores (Políticos, Económicos, Sociales,

Tecnológicos y Ecológicos), identificando las variables que en

cada aspecto del proceso resulten relevantes y que permitan así

entender la relación y el impacto entre estos y el mercado motivo

de análisis [5].

Según sea el caso, es posible incluir otros factores al

diagnóstico (los Legislativos y los Industriales) o excluir a aquellos

que no tengan gran impacto en determinado mercado [6].

Así, este análisis comienza con una definición del mercado

objeto de estudio y la situación actual. Luego, se identifican las

variables que lo explican y los factores relevantes (P.E.S.T.A) que

servirán como base de comparación, dejando sólo los que sean

necesarios para el diagnóstico. Continúa un proceso de

recolección de datos mediante la búsqueda en fuentes primarias o

secundarias, la observación o la interrogación, para con estos

crear una matriz en la que se relacionan los factores y las

variables que se identificaron con anterioridad, comprendiendo el

Adolfo E. Chávarri , Egresado, Ingeniería Industrial

E

Diagnóstico de la reforma agraria dirigida al incremento de la producción de maíz amarillo en

colombia desde el año 2002 hasta el 2006 y propuesta de medidas alternativas hacia el futuro

Page 42: Revista SIRIO FUSM

comportamiento del mercado estudiado.

B. Cinco Fuerzas de Porter

Este análisis fue creado por el Economista Michael Porter en

1979 y describe el comportamiento competitivo de un mercado o

sector de este a través de 5 factores claves, con la finalidad de

entender qué sucede en el entorno del negocio desde el punto de

vista estratégico [7].

Este análisis permite conocer qué factores son relevantes en

un sector industrial y el impacto que cada uno de estos genera en

las variables de medición de competitividad que pueden ser el

precio, calidad del producto, servicio e innovación, principalmente;

dependiendo de cual sea la predominante en el sector industrial a

estudiar. Además, este modelo permite identificar qué tan fuerte

es la competencia en la industria, cuáles son los motivos por la

que esta cambia, las posiciones competitivas de las empresas y

determina también que tan atractiva es en términos de

rendimientos.

El análisis de Porter se constituye por 5 fuerzas que son:

Ingreso potencial de nuevos competidores; Intensidad de rivalidad

entre competidores actuales; Presión de los productos sustitutos;

Poder de negociación que ejercen los proveedores; Poder de

negociación que ejercen los clientes.

III. DETERMINACIÓN DE LAS CAUSAS DEL PROBLEMA

A. Comparación de Cifras Proyectadas con las Reales

El proyecto dio inicio con una descripción de los esfuerzos que

el Gobierno realizó para el incremento de la producción de maíz

amarillo desde el año 2002 hasta el 2006. En esta se cuantificaron

los resultados y se analizaron los factores que fueron causa de los

mismos.

Este análisis arrojó una primera perspectiva de lo que ocurría y

ratificó la necesidad de incurrir en una investigación más profunda

para entender a cabalidad el problema.

Para el momento se comprendía la escasa respuesta que

había tenido la producción maicera ya que los mismos esfuerzos

del gobierno no eran suficientes ni ambiciosos.

B. Análisis P.E.S.T.A.

El segundo paso en el desarrollo del proyecto fue la realización

del análisis P.E.S.T.A. dirigido al mercado colombiano de maíz

amarillo.

Dentro de este análisis se identificaron los siguientes factores:

Políticos:

Artículo 4° de la Ley 101 de 1993.

Mecanismo de Administración de Contingentes.

Económicos:

Costos del paso del cultivo tradicional al cultivo

tecnificado.

Compra de semilla certificada.

Financiación para los agricultores.

Estímulos económicos.

Comercialización de la cosecha.

Sociales :

Trabajo Rural.

Cultivos ilícitos.

Tecnológicos:

Uso de semilla certificada.

Uso de Agroquímicos.

Ambientales:

Cultivos en diferentes regiones de Colombia.

Rendimientos por superficie de tierra.

Cambios climáticos.

Al finalizar con la descripción bajo estos factores, el panorama

se aclaraba demasiado y se tenía el conocimiento adecuado para

diseñar la estrategia adecuada.

C. Cinco Fuerzas de Porter

Esta tercera herramienta proporciono información valiosa en

cuanto al diseño de la estrategia, ya que mediante el desarrollo de

la misma se obtuvo información que mostraba que la calidad del

maíz amarillo nacional era superior a la del maíz proveniente de

EE.UU. Esto fue motivo para dejar el tema de la calidad de lado

en la estrategia y enfocarse estrictamente en la reducción de

costos y expansión del área de cultivo.

También, con este análisis se concluye que el maíz amarillo es

un producto sustituible dentro de la producción del ABA, pero a su

vez es un componente que proporciona cualidades físicas y

nutricionales excelentes a la carne de cerdo, pollo, gallina y a los

huevos.

D. Determinación de los Puntos Clave a Atacar en la Estrategia

La cuarta etapa del proyecto fue una comparación de las

conclusiones arrojadas en los tres anteriores análisis y determinar

así las causas reales de la baja producción maicera de Colombia.

Las causas que se determinaron fueron las siguientes:

Escasa disponibilidad de semilla adecuada.

Manejo inadecuado de la cosecha.

Manejo inadecuado de la tierra.

Poca disponibilidad de acceso a resultados de

investigaciones de los usuarios y seguimiento a

estrategias y acceso a información.

Insuficiente seguridad de la comercialización de la

cosecha.

IV. DISEÑO DE LA ESTRATEGIA

Basado en las causas identificadas en la comparación de los

análisis anteriormente realizados, se construyó la estrategia

denominada Plan Nacional de Incremento de Desarrollo de Maíz

Amarillo Tecnificado.

Este Plan tiene como base trabajar con el cultivo tecnificado. A

partir de esto se desprenden 8 campos de acción que son:

Trabajo diversificado por regiones.

Investigación de las propiedades biofísicas del ambiente

del cultivo, características socioeconómicas y técnicas

de siembra de maíz amarillo en cada región.

Mejoramiento de semilla.

Page 43: Revista SIRIO FUSM

Inversión en infraestructura.

Difusión de resultados y transferencia de tecnología.

Capacitación al usuario para el acceso a tecnología.

Campañas de motivación para la tecnificación de los

cultivos.

Intensificación de los sistemas de comercialización.

V. CONCLUSIONES

Durante el desarrollo del proyecto se aclaró lo fundamental que

resulta para Colombia reducir la importación del cereal de los

Estados Unidos y dejar de depender de éste o de cualquier otro

país para evitar una posible crisis de escasez y/o de aumento

desmesurado de los precios, lo que traería como consecuencia

directa un impacto negativo en la canasta familiar colombiana. Por

tal, se ratificó la necesidad de generar nuevas alternativas para

dar solución al problema.

Se realizó un análisis, utilizando diferentes herramientas

enfocadas desde distintos puntos de vista, para así poder tener un

mejor y claro panorama y entender las causas reales del porqué

no se estaba produciendo dentro del territorio colombiano

suficiente maíz para que la demanda colombiana no se viera

afectada en caso de detenerse las importaciones.

Se hizo una comparación entre las metas propuestas por el

gobierno en cuanto al incremento del área de maíz amarillo

tecnificado y las cifras a las que realmente se llegó entre los años

2002 y 2006. Se pudo observar que las metas fueron

sobrepasadas por escaso margen durante los dos primeros años,

lo que indicaba que se estaba respondiendo excelentemente al

plan del gobierno. Las metas en los años 2005 y 2006 no se

pudieron cumplir, lo que trajo un déficit del total del objetivo del

33% y a su vez llevó a una investigación de las causas del porqué

se pudo en los primeros años y por qué en los dos últimos se

incumplieron los objetivos. Se identificaron también los factores

que contribuyeron al incremento de la producción maicera y los

que evitaron que se cumplan el total de las metas. Se utilizó la

herramienta P.E.S.T.A. para analizar el mercado maicero de

Colombia. En este se determinaron los factores políticos,

económicos, sociales, tecnológicos y ambientales que influyen en

la producción del cereal.

En los aspectos políticos se resaltó el Artículo 4° de la Ley 101

de 1993 y por otro lado se analizó el Sistema de comercialización

de la cosecha MAC. En los económicos, se analizaron los costos

del paso del cultivo tradicional al cultivo tecnificado, la compra de

semilla certificada, la financiación para los agricultores, los

estímulos económicos y la comercialización de la cosecha desde

el punto de vista entre relación directa entre el productor y cliente.

En cuanto a factores sociales, el trabajo rural fue el gran ítem

analizado, tocando también el tema de cultivos ilícitos. Los

factores tecnológicos incluidos fueron el uso de semilla certificada

y el de fertilizantes. Lo incorporado en lo ambiental fue de gran

importancia, ya que cuando se hizo una descripción de las seis

regiones cultivadoras de maíz amarillo en Colombia, se

evidenciaron las que tienen ventajas competitivas frente a las

demás y a las que debe ir dirigida la estrategia final; por otro lado,

el tema del rendimiento también fue de gran importancia y mas al

compararlo con el de Estados Unidos.

Se realizó el análisis de las Cinco Fuerzas de Porter para el

mercado nacional de maíz amarillo, tomando a los productores

nacionales como una sola empresa y al maíz importado de

Estados Unidos como la competencia.

Bajo este análisis se identificó que la calidad del maíz amarillo

colombiano es mejor que la proveniente de los Estados Unidos.

Se compararon los tres análisis previos y se determinaron

cinco causas principales que impiden el gran incremento de la

producción colombiana de maíz amarillo: Escasa disponibilidad de

semilla adecuada para cada región, mal manejo de la cosecha,

inadecuado manejo de la tierra, poca disponibilidad de acceso a

resultados de investigaciones y seguimiento a estrategias y

acceso a información e insuficiente seguridad en la

comercialización de la cosecha.

Se diseñó una estrategia considerando el conocimiento

adquirido en los análisis realizados denominada Plan Nacional de

Incremento de la Producción de Maíz Amarillo Tecnificado.

Esta estrategia está comprendida por 8 puntos clave que

parten de la tecnificación del cultivo: Trabajo diversificado por

regiones; Investigación de las propiedades biofísicas del ambiente

del cultivo, características socioeconómicas y técnicas de siembra

de maíz amarillo en cada región; Mejoramiento de semilla;

Inversión en infraestructura; Difusión de resultados y transferencia

de tecnología; Capacitación al usuario para el acceso a

tecnología; Campañas de motivación para la tecnificación de los

cultivos; Intensificación de los sistemas de comercialización.

VI. RECOMENDACIONES

Las herramientas usadas en este análisis del mercado

colombiano del maíz amarillo son solo algunas formas de

interpretar este escenario, por lo cual este proyecto contribuye a

dar solución a un problema de magnitud nacional, sin caer en la

exageración de afirmar que es lo que el Gobierno debe seguir al

pie de la letra. Pero sí debe considerarse al tomar las medidas

necesarias para incrementar la producción maicera y establecer

una estrategia que permita la autosostenibilidad.

A quien esté interesado en diagnosticar el mercado nacional o

regional de algún producto, se le recomienda conocer a

profundidad el mismo y considerar la mayor cantidad de

herramientas posibles para su análisis, para luego seleccionar las

más adecuadas. Además, se debe conocer a los participantes del

mercado así como sus intereses, para que se encuentre la

manera de sinergizarlos y lograr la cooperación de todos. Todo

esto permitirá el diseño de una estrategia válida y bien

fundamentada.

VII. TRABAJO FUTURO

Este proyecto es la propuesta de una estrategia a nivel

nacional según los análisis realizados y las herramientas

utilizadas antes descritas. Sería interesante hacer énfasis en cada

una de las áreas temáticas descritas en el plan, poniéndolas en

práctica, ya que la implementación de cada uno de estas traería

resultados positivos en el corto plazo.

Page 44: Revista SIRIO FUSM

Además, el viajar a diferentes ciudades de Colombia y tener

comunicación directa con los principales actores del mercado, es

decir, los productores de maíz amarillo tecnificado, daría un

enfoque diferente a la problemática, el cual podría revelar

información que contribuya al mejoramiento de la estrategia.

REFERENCIAS

[1] Observatorio Agrocadenas. 2007. http://www.agrocadenas.gov.co (Navegado en Febrero y Marzo de 2009)

[2] Federación Nacional de Cereales y Leguminosas. 2007. http://www.fenalce.net/ (Navegada en Junio de 2008 y Febrero de 2009).

[3] United States Deparment of Agriculture. 2008. http://www.usda.gov/ (Navegada en Septiembre de 2008)

[4] Bolsa de Chicago. 2008. http://www.cbot.com/ (Navegada en Agosto de 2008)

[5] U-Cursos. 2007. https://www.u-cursos.cl/ [6] (Navegada en Octubre de 2008) [7] Universidad Pontificia Bolivariana. http://cmap.upb.edu.co/ (Navegada en

Octubre 2008) [8] Juan Carlos Aguilar Joyas. Economista - Magister en Administración.

Facultad de Ciencias Económicas y Administrativas – Universidad Autónoma de Occidente. Cali - Colombia. 2006.

Page 45: Revista SIRIO FUSM

Resumen – Este proyecto tiene como objetivo aportar una solución al

manejo de imágenes diagnósticas en medicina basado en el análisis

wavelet. El cálculo de la trasformada wavelet da como resultado

coeficientes que son organizados por codificación entrópica que optimiza

la compresión de las placas ecográficas, logrando así el ahorro de

espacio en los servidores de las clínicas y disminuir el ancho de banda

requerido para el transporte de estas.

Palabras claves– Kernel, compresión, correlación, Transformada

wavelet.

I. INTRODUCCIÓN

ctualmente los países están buscando soluciones médicas

para atender a la población que se encuentra en zonas

alejadas donde es difícil y costoso el acceso de personal

calificado. La Telemedicina, es una rama de las

Telecomunicaciones que pretende contribuir al mejoramiento del

servicio de salud, su propósito es intercambiar información para

aplicaciones médicas como cirugía, radiología, dermatología,

entre otras, utilizando diferentes tecnologías, como redes de área

local o enlaces satelitales.

Al transmitirse y almacenarse imágenes médicas surgen

diversos problemas, entre los que se encuentra el alto consumo

de ancho de banda requerido para ser enviadas hacia otros

equipos, esto hace que los costos y el tiempo para prestar este

servicio sean altos. Este problema se puede solucionar

implementando una técnica de análisis de señales que realice un

proceso de compresión garantizando no tener perdidas altas de

información, puesto que para su estudio médico es importante la

nitidez de la imagen. Existe una herramienta matemática que

permite estudiar una señal en tres dimensiones, comprimir con

pocas pérdidas y así aprovechar de mejor forma el ancho de

banda, esta es la transformada wavelet. Este proyecto

implementa la transformada wavelet en el tratamiento de

imágenes ecográficas digitales con el objetivo de aportar que

permita el mejoramiento del servicio en las entidades prestadoras

de salud. Igualmente se busca el ahorro en espacio de los

servidores que almacenan estudios médicos e historias clínicas y

el ahorro de papel de impresión de ecografías. En el caso de los

servidores estos se saturan rápidamente ya que cada ecografía

tiene un peso aproximado de 1,37 Mbits y por cada estudio son

alrededor de 10 a 12 imágenes, en promedio se sacan 70

estudios diarios los cuales ocupan aproximadamente 414,288

Gbits de memoria.

II. CONCEPTOS BÁSICOS

A. Marco Teórico.

El Ecógrafo, se compone básicamente de un monitor y un

emisor-receptor (transductor) que a través de un cristal induce un

pulso eléctrico y recoge los ecos ultrasónicos, habitualmente con

frecuencias de 1 a 10 MHz,. Cuando se recibe la energía

reflejada por cada órgano, se procesa la información: Los datos

son convertidos de analógicos a digitales, transferidos a un buffer,

se cuantifican, se convierten en una imagen digital y se presenta

en una pantalla en forma de imagen en escala de grises [1]

Existen diversos formatos de presentación de imágenes

ecográficas entre las que se encuentran: [2]

Sectorial: la imagen es en forma de abanico, se usa

especialmente en exploraciones cardiacas y abdominales, su

frecuencia de trabajo suele ser de 3.5 a 5MHz.

Convex: proporciona una imagen en forma de trapecio,

utilizada especialmente para exámenes obstétricos y de abdomen

general, su frecuencia de trabajo es igual a la sectorial.

Lineal: suministra una imagen en forma rectangular, explora

estructuras superficiales como músculos, tendones, mamas,

escroto, tiroides, entre otros tejidos blandos. Da una información

más detallada que las dos anteriores ya que maneja frecuencias

de trabajo de 7.5 a 10 MHz

B. Trasformada Wavelet.

En campos como la medicina, sismología, geología, electrónica

y desarrollo militar se generan señales que no se comportan en

forma estacionaria, o que presentan cambios bruscos en

intervalos muy pequeños. Es por ello que desde hace más de 20

años, se han venido desarrollando nuevas herramientas que

permitan analizar estas señales desde otra perspectiva [3].

La transformada Wavelet tiene su fundamento en la

transformada de Fourier. La transformada de Fourier descompone

una señal en ondas sinusoidales de diferentes frecuencias y

permite pasar del dominio del tiempo al de la frecuencia. Pero

ocasiona pérdida de información del tiempo, es decir, resultaría

difícil determinar el momento en el que ocurre un determinado

suceso cuando se está a una determinada frecuencia. Ocurre

también otro problema con Fourier a corto plazo (Transformada

Gabor), no funciona bien en los puntos donde las señales tienen

algún cambio abrupto en su forma, son incapaces de determinar

el tiempo y la frecuencia del suceso. Por tal razón es necesario

implementar otra técnica, La trasformada Wavelet da solución al

problema.

C. Transformada Wavelet En Tiempo Continúo.

La trasformada wavelet continua está dada por (1):

(1)

Compresión y Transmisión de Imágenes Ecográficas.

A

Eliana M. García, Juan D. Prieto, Egresados, Ingeniería Electrónica y Telecomunicaciones

Page 46: Revista SIRIO FUSM

Donde, f(x) es la señal a transformar y esta dada por:

(2)

En (2) se presenta el Kernel de la trasformada Wavelet, una

ondícula con duración efectiva limitada y valor promedio cero.

Según su definición se encuentra normalizada al ser la base

conformadora del espacio de señal de las trasformaciones que se

pueden generar a partir de este, es decir f(x), es descompuesta

en coeficientes Wavelet que convergen matemáticamente como

combinación lineal al espacio de señal de la Wavelet

implementada en la trasformación. El desplazamiento de la

ondícula sobre la señal está dado por y s es el factor de

escalamiento.

La trasformada Wavelet tiene la propiedad de invertibilidad,

puesto que es una operación lineal, las correlaciones obtenidas

en el cálculo de la trasformada son ortogonales, como

consecuencia la suma de todas las descomposiciones da como

resultado la señal original. Por tanto se puede obtener f(x)

utilizando la transformada inversa Wavelet:

(3)

Donde el criterio de admisibilidad o la energía de la wavelet

es:

(4)

D. Cálculo De La Trasformada Wavelet Discreta En Imágenes

Una imagen es una matriz de pixeles codificados con unos y

ceros, su valor depende del nivel de la escala de color a

representar. Cuando se aplica transformada Wavelet a una

imagen, los coeficientes generados codifican los pixeles con base

al Kernel, produciendo así una correlación sobre estos. Si el

Kernel elegido ofrece pérdidas visuales poco perceptibles, se

puede cuantizar e implementar algún tipo de compresión. El

cálculo de los coeficientes de la trasformada Wavelet discreta está

dado por (5).

(5)

Donde y , son la señal a transformar y el

Kernel wavelet discretizados respectivamente [4].

El cálculo de la trasformada wavelet en imágenes, se hace

mediante la implementación de un banco de filtros ortogonales,

esto con el fin de dividir la información en segmentos de datos

más pequeños pero que ocupen el mismo espectro de frecuencias

de la imagen sin filtrar.

A continuación se muestra el banco de filtros al que es

sometida la imagen:

Fig. 1. Banco de filtros ortogonales de análisis para el cálculo de la

trasformada wavelet discreta.

El banco de filtros divide la imagen en coeficientes de

aproximación y detalle, siendo los de aproximación los que tienen

mayor correlación con respecto a la imagen original y los detalle la

menor (Fig. 2). El cuadrante superior izquierdo contiene la

aproximación sin importar el número de descomposiciones que se

haga en el cálculo.

Fig. 2. DWT en imágenes.

Para la reconstrucción de la señal original, cada segmento

obtenido en la descomposición es sometido a un banco de filtros

de síntesis (Fig. 3), buscando recuperar las frecuencias originales

de cada espectro. La función matemática que describe el cálculo

de la trasformada inversa Wavelet discreta está dada por:

(6)

y , son los coeficientes de la

Page 47: Revista SIRIO FUSM

trasformada y es el filtro wavelet implementado para

hacer el cálculo de la trasformada inversa.

Es importante definir coherentemente los factores de

decimación en interpolación ya que es en este punto donde

pueden presentarse pérdidas de información. Como se trata de

imágenes médicas este tipo de pérdidas no pueden permitirse,

por ejemplo, la variación de un pixel dentro de la ecografía podría

interpretarse como alguna anomalía médica.

Fig. 3. Banco de filtros de síntesis para el cálculo de la trasformada

inversa wavelet discreta.

Los filtros utilizados para el cálculo de la transformada Wavelet

discreta deben converger a la función matemática de la Wavelet

que se desee implementar, luego la respuesta al impulso o al

paso de la función de transferencia de estos, deben describir la

forma de la ondícula.

III. DESARROLLO

A. Selección Familia Wavelet para la compresión.

Se seleccionaron un grupo de ecografías que tenían

características diferentes en cuanto a los tonos (oscuro, blanco y

gris) y al tipo de ecografías (tejidos blandos y obstétricas)

parecida a la de la Fig. 4.

Fig. 4. Ecografía seleccionada del grupo para aplicar descomposición y

determinar la familia wavelet más apropiada para comprimir.

Se aplicó la transformada Wavelet con varios niveles de

descomposición de cada una de las familias existentes en el

Toolbox de Matlab con interfaz gráfica (GUIDE), obteniendo así

las imágenes de síntesis en formato Bitmap (BMP) Fig. 5.

Fig. 5. Descomposición de la imagen en la aplicación GUIDE en el

software Matlab.

Una vez hecho este proceso para cada imagen, se obtuvo un

banco de 168 imágenes que se sometieron a estudios

matemáticos como el cálculo de la correlación, varianza y media

sobre el histograma para determinar variación de contraste y brillo

respectivamente. Estos estudios arrojaron que en ninguna imagen

los cuadros clínicos se veían afectados y los cambios de brillo y

contraste fueron los mismos para cada ecografía. Por esta razón

se sometieron las imágenes al estudio de un médico radiólogo y

de un ingeniero biomédico, quienes compararon las ecografías

originales con cada una de las síntesis, concluyendo que la familia

Wavelet que presenta menores cambios es la Discrete Meyer.

B. Problemas con la compresión.

Los coeficientes obtenidos de la ecografía son en formato

Double, necesitando 64 bits para su representación, lo cual causó

que el tamaño del archivo generado en la trasformada Wavelet

tuviera mayor cantidad de información que la imagen original.

Esto implica que no se puedan lograr altas tasas de compresión

sin perdidas implementando esta herramienta.

En la implementación del Kernel Discrete Meyer se generó un

archivo de 4,25 Mbits, luego de la cuantización de los coeficientes

y de la compresión su tamaño se redujo a 4,23 Mbits por lo que se

concluye de manera obvia que esta familia Wavelet no sirve para

hacer compresión sin perdidas en imágenes.

Page 48: Revista SIRIO FUSM

C. Solución implementada.

Como los diagnósticos profesionales demostraron que ninguna

familia Wavelet alteraba los cuadros clínicos presentes en las

imágenes, se estudió el comportamiento de los coeficientes de las

diferentes Wavelets implementadas, para identificar así la familia

que permite la mayor compresión. Se determinó la razón por la

cual la familia Discrete Meyer no ofrece ningún tipo de

compresión, porque no tiene coeficientes repetidos Fig. 6.

0 1 2 3 4 5 6

x 105

-600

-400

-200

0

200

400

600

800coeficientes familia dmey

Fig. 6. Distribución de los coeficientes familia Discrete Meyer.

Los estudios demostraron que los coeficientes obtenidos más

uniformes Fig. 7. son los de las familias Haar, Daubechies 1,

Biorthogonal 1.1 y Reverse Biorthogonal 1.1. La tasa de

compresión que se obtuvo fue del 87.32% y un tamaño de archivo

comprimido de 311 Kbits.

0 0.5 1 1.5 2 2.5 3 3.5

x 105

-400

-200

0

200

400

600

800coeficientes familia Haar

Fig. 7. Distribución de los coeficientes familia Daubechies 1, Biorthogonal

1.1 y Reverse Biorthogonal 1.1.

D. Técnica de compresión utilizada.

Se implementó codificación Huffman para la compresión de los

coeficientes obtenidos en el cálculo de la trasformada wavelet,

esta técnica no genera pérdidas de información porque asigna a

cada símbolo de la fuente (coeficientes) una probabilidad de

ocurrencia y un símbolo, esto se determina por medio del cálculo

de la entropía la cual determina donde se encuentra concentrada

la información de la imagen y cuantos símbolos de la fuente se

repiten. La tabla 1 muestra los resultados obtenidos en las

compresiones hechas a los coeficientes wavelet.

TABLA 1

TASA DE COMPRESIÓN DE LOS COEFICIENTES WAVELET

Familia Wavelet

Tamaño

de los

coeficientes

(Bytes)

Tamaño de

los coeficientes

comprimidos

(Bytes)

Tasa de

compresión

Haar 2457600 311519 87.32%

Daubechies 1 2457600 311519 87.32%

Daubechies 10 2712216 1765852 34.89%

Symlets 2 2489112 1001754 59.75%

Symlets 8 2655288 1640164 38.23%

Coiflets 1 2511744 1254802 50.04%

Coiflets 5 2852736 2036118 28.62%

bior1.1 2457600 311519 87.32%

bior 6.8 2678784 1579403 41.04%

rbio 1.1 2457600 311519 87.32%

rbio 6.8 2678784 1585052 40.82%

Dmey 4041600 3680787 8.927%

El algoritmo implementado para hacer la compresión de la

imagen ecográfica se muestra en la Fig. 8.

Inicio

Obtención

coeficientes de la

transformada

wavelet.

Calcular

entropía del

coeficiente.

Cuantizar

Compresión

del coeficiente

Empaquetamiento

Fin

Fig. 8. Lógica Técnica de compression

Para determinar la tasa de compresión se diseñó e implementó

la siguiente ecuación:

(6)

Siendo:

Page 49: Revista SIRIO FUSM

Tc, la tasa de compresión.

CC, los coeficientes comprimidos.

TCR, tamaño de los coeficientes sin comprimir.

E. Estructura del archivo comprimido.

El archivo generado tiene la siguiente estructura: coeficientes

comprimidos, el tamaño de los niveles de descomposición y el

mapa de color de la imagen, sin este último la reconstrucción de

la imagen no se podría realizar satisfactoriamente (Fig. 9).

Fig. 9. Imagen reconstruida sin mapa de color.

Si se codifica el mapa de color a escala de grises (0–255) se

producen pérdidas en la imagen (Fig. 10).

Fig. 10. Imagen reconstruida con codificación del mapa de color.

Los resultados obtenidos sugieren que al mapa de color no se

le puede modificar.

Descompresión de imagen ecográfica.

El algoritmo implementado, para la descompresión de la

imagen ecográfica, se aprecia en la Fig. 11.

Inicio

Descompresión

de coeficientes

Recuperación

de tamaños de

coeficientes y

mapa de color

Calculo

trasforma

da inversa

wavelet

Visualizar

imagen

reconstruida

Fin

Fig. 11. Lógica Técnica de compresión

Después de obtener la imagen reconstruida esta fue sometida

cálculos matemáticos con el fin de determinar las posibles

pérdidas generadas en el proceso de compresión y

descompresión.

El resultado de la correlación de la imagen fue de uno,

demostrando así que los cuadros clínicos no se afectaron en

cuanto a forma del contorno de la imagen. Ahora bien, la

correlación de los histogramas de síntesis con respecto al original

arrojó un resultado cercano a cero, lo que indica que estas son

imágenes diferentes y garantiza la transparencia del proyecto.

F. Presentación Final.

La interfaz gráfica tiene un diseño muy sencillo en donde el

usuario podrá comprobar cuales son la familias wavelet que

ofrecen compresión y cuáles no (Fig. 11).

Page 50: Revista SIRIO FUSM

Fig. 11. Imagen reconstruida con codificación del mapa de color.

IV. CONCLUSIONES

La trasformada wavelet es una herramienta matemática que no

comprime solo con su ejecución, la compresión se da al

determinar cuántos y cuáles coeficientes se pueden eliminar sin

causar muchas pérdidas en la imagen. Esta supresión no es

válida para la compresión de imágenes de diagnóstico médico,

debido a que en los coeficientes de detalles y aproximación

pueden encontrarse los cuadros clínicos.

Los filtros wavelet poseen una frecuencia de corte invariable,

sin embargo se puede dividir el espectro de la señal en un banco

de filtros que permita seleccionar los coeficientes más útiles para

la implementación de la compresión de imágenes con pérdidas,

tomando únicamente la aproximación y desechando los detalles.

Se logró alta tasa de compresión con las familias Haar,

Daubechies 1, Biorthogonal 1.1 y Reverse Biorthogonal 1.1

debido a que estas wavelet solo varían su amplitud dos veces

(son señales rectángulos), luego los coeficientes convergen a

estos valores y los coeficientes se hace más similares entre sí Fig.

12.

Fig. 12. Wavelet Haar.

Al aplicar transformada wavelet discreta sobre cada imagen los

especialistas en el manejo de imágenes médicas consultados

notaron que estas tenían variaciones en cuanto al brillo de los

pixeles, apreciación que pudo demostrarse haciendo cálculos

entre los histogramas de cada imagen reconstruida respecto a los

de la original, concluyendo que este fenómeno se debe al

desplazamiento hacia la derecha de la información del histograma

original y la variación de la media (brillo) y la varianza (contraste).

La trasformada wavelet es una herramienta ideal para analizar

señales no estacionarias (que no mantienen la misma forma en el

tiempo), puesto que brinda una completa identificación de las

componentes de frecuencia asociadas a los diferentes niveles de

escala, permitiendo encontrar con mayor facilidad que con otras

herramientas como Fourier discontinuidades y cambios abruptos

en la señal.

V. TRABAJO FUTURO

La telemedicina permite la integración de muchas herramientas

tecnológicas con el fin de mejorar y hacer más fácil el préstamo

de servicios médicos. Este proyecto se basa en imágenes

ecográficas ya tomadas y digitalizadas, para su posterior

manipulación mediante MATLAB; se puede ofrecer el mismo

tratamiento a este tipo de imágenes médicas realizando la

implementación en un DSP (Procesador Digital De Señales).

Como la trasformada wavelet, descompone una imagen en

aproximación y detalles, se puede diseñar e implementar un

algoritmo que detecte cuadros clínicos automáticamente, por

ejemplo, embarazos ectópicos, tumores, quistes y cáncer en

tejidos blandos.

Implementar la trasformada wavelet para el reconocimiento de

patrones auditivos en cardiología, neurología y obstetricia.

Utilizar las diferentes técnicas del procesamiento digital de

señales, para hacer realzado de patrones anormales dentro de la

ecografía o simplemente para implementar técnicas de

ecualización que le permita a los radiólogos mejorar sus

características visuales.

Implementar este proyecto en estándares de manejo de

imágenes médicas como DICOM, facilita el trasporte de estos

datos a través de las redes de comunicación hospitalarias y

además este protocolo no cuenta con herramientas de

compresión sin pérdidas.

VI. OBSERVACIONES

Los resultados obtenidos al hacer todo el proceso presentado

en este proyecto fueron sometidos al estudio de un médico

radiólogo y un ingeniero Biomédico especialista en imágenes

diagnosticas, ambos concluyeron que al implementar la

compresión de las ecografías con cualquier familia Wavelet no

presenta pérdidas significativas que puedan alterar el cuadro

clínico. Con el uso de la familia Discrete Wavelet no se aprecia

cambio alguno entre la imagen original y de síntesis, existe un

problema evidente en la implementación de esta familia sugerida,

se generan coeficientes muy dispersos entre sí por lo cual hacer

cuantización y compresión sobre estos no es viable.

Page 51: Revista SIRIO FUSM

Como ninguna familia afecta los cuadros clínicos vistos dentro

de las ecografías, se hizo un estudio con cada una de las familias

con lo que se demostró que la Haar y sus similares ofrecen una

alta tasa de compresión.

Los autores agradecen a las personas que participaron en el

estudio de cada una de las ecografías tratadas:

Doctora Patricia Ortiz Peña.

Ingeniero Eddier Yesid Pardo Herrera.

REFERENCIAS

[1] J. Mompín P. Introducción a la bioingeniería. serie mundo electrónico. Ed. MARCOMBO S.A. Barcelona España 1988.

[2] L. Fernanda, A. Martínez. ―Ecografías 2D y 3D‖. Programa de Ingeniería Biomédica EIA – CES. Antioquia Colombia 2006.

[3] Kouro R. Samir, Musalem M. Rodrigo, ―Tutorial Introductorio a la Teoría De Wavelet‖. Departamento De Electrónica. Universidad Técnica Federico Santa María. Valparaíso Chile 2002.

[4] González C. Rafael. Digital Image Processing. 3 ed. Addison-Wesley Publishing company. Estados Unidos De América 2008.

Page 52: Revista SIRIO FUSM
Page 53: Revista SIRIO FUSM