ENCUENTRO DE SEMILLEROS DE INVESTIGACIÓN DE
FACULTADES DE INGENIERÍA DE TELECOMUNICACIONES Y
AFINES
Estableciendo Redes de Investigación
LIBRO DE RESÚMENES
Número I
ENCUENTRO DE SEMILLEROS DE INVESTIGACIÓN DE
FACULTADES DE INGENIERÍA DE TELECOMUNICACIONES Y
AFINES
Estableciendo Redes de Investigación
LIBRO DE RESÚMENES
Medellín, 28 de mayo de 2015 Número I
UNIVERSIDAD SANTO TOMÁS SEDE MEDELLIN
Comité Académico: Ángela María Londoño Jaramillo, Camilo Andrés Flórez Velásquez, Guillermo
León Bolívar Ortiz.
Compiladores: Camilo Andrés Flórez Velásquez, Ángela María Londoño Jaramillo.
Universidad Santo Tomás, 2015.
Carrera 82 No. 77 BB 27
Medellín, Antioquia; Colombia.
Teléfono: (574) 2341034
www.ustamed.edu.co
ISSN 2500-7610 (En línea)
Contenido
Presentación 10
Herramientas informáticas para el aprendizaje y la Investigación. 13
Diseño e implementación de un sistema de comunicación silenciosa dual
basado en habla subvocal.
17
Diseño e implementación de un sistema para clasificación de caracteres
obtenidos de señales electroencefalográficas (EEG) aplicado en pacientes
con problemas de afasia motriz.
23
Ocultamiento de señales de voz en imágenes RGB por medio de la técnica
QIM.
28
Marcado de audio digital con imágenes binarias utilizando QIM. 35
Implementación de Sistemas de Radares análogo y digital experimentales de
bajo costo para estudios de detección de objetos.
39
Prototipo de una red GSM con el uso de OpenBTS y USRPs en el Campus
Cajicá de la Universidad Militar Nueva Granada.
47
Diseño y simulación de filtros Microstrip usando el software ADS. 52
Diseño y simulación de antenas Microstrip usando el software ADS. 57
Caracterización y documentación georreferenciada de la interferencia,
seguridad y el solapamiento de canales en sitios de libre acceso a Internet
para redes WiFi, en puntos críticos de la comuna 10 de Medellín
proponiendo una Metodología de medición.
62
Incidencia de la tecnología Li-Fi en el funcionamiento de equipos
electrónicos presentes en las instalaciones hospitalarias de la ciudad de
Medellín.
69
Vulnerabilidad con Wifislax. 73
Implementación de manejo de inventario por tecnología RFID. 78
Aplicación y uso de un repositorio de activos de software para el desarrollo
ágil de aplicaciones, caso de estudio: Triage de pacientes con riesgo
cardiovascular.
81
Desarrollo de una estación meteorológica de bajo costo. 88
Diseño e implementación de una aplicación de visión artificial para el conteo
de vehículos de transporte público (taxis) presentes en una intersección de
la ciudad de Medellín.
94
Aplicación de un algoritmo de correlación cruzada 2-D para la identificación
de placas vehiculares de automotores de servicio público.
99
Diseño e implementación de un sistema de visión artificial estereoscópica 103
para navegación robótica.
Desarrollo de un contenido digital interactivo con prácticas ágiles. Caso
aprendizaje en la formulación de hipótesis.
112
Sistema de información geográfica para la administración de bienes
inmuebles, aplicando los principios de la gestión del conocimiento territorial
– caso una central mayorista.
117
Generación de material didáctico para el uso de radios definidos por
software
122
Presentación
El día 28 de mayo de 2015, se ejecutó en las instalaciones de la Universidad Santo
Tomás, Sede Medellín el evento “Segundo Encuentro de Semilleros de Investigación de
Facultades de Ingeniería de Telecomunicaciones y Afines, USTAMED 2015”. Este encuentro
es una iniciativa concebida y organizada por la Facultad de Ingeniería de
Telecomunicaciones y la Unidad de Investigaciones de la Universidad Santo Tomás Sede
Medellín, que tiene por objetivo central “generar espacios para la divulgación científica de
los resultados de proyectos de investigación desarrollados en los semilleros de
investigación participantes, que sirvan como ejercicio de reflexión en el quehacer
científico en las áreas temáticas de las Ingenierías y las Ciencias Naturales; y para
promover el uso de estos resultados orientados hacia el desarrollo sostenible de la región
y el país.
Se resalta del evento II ESIFIT USTAMED 2015 la calidad y cantidad de las ponencias de
resultados de investigaciones socializadas por diversos semilleros de investigaciones del
país. Además se mostró al público participante el gran potencial que poseen nuestros
investigadores en el análisis juicioso y crítico de las diversas problemáticas que aquejan a
nuestras comunidades, así como la capacidad para generar propuestas y soluciones
ingeniosas que apoyan de forma contundente el desarrollo socioeconómico de la nación.
El presente libro es producto de los resúmenes que por su calidad y naturaleza de las
temáticas abordadas, merecen ser publicados para su posterior lectura de la comunidad
científica, y son todo un ejemplo de la enorme capacidad que poseen los investigadores
participantes en el campo de la investigación y el desarrollo.
En total se seleccionaron 20 resúmenes, discriminados en las siguientes áreas
temáticas:
5 resúmenes en el área de Comunicaciones Inalámbricas y Redes de Sensores.
4 resúmenes en el área de Antenas y Microondas.
3 resúmenes en el área de Sistemas e Informática.
3 resúmenes en el área de Visión Artificial.
2 resúmenes en el área de Comunicaciones Digitales (Seguridad).
2 resúmenes en el área de Bioelectrónica.
1 resumen en el área de Ciencias Exactas.
A nombre del comité organizador del II Encuentro de Semilleros de Investigación de
Facultades de Ingeniería de Telecomunicaciones y Afines, USTAMED 2015, extendemos
un cálido agradecimiento a todos los investigadores, miembros de los comités académico
y logístico, y al público asistente, por su aporte en la realización de tan importante evento
y esperamos que los resúmenes presentados en este libro sean del total interés para la
comunidad científica nacional.
13
Herramientas informáticas para el
aprendizaje y la Investigación
Cristian Camilo González Ramos 1[autor]
Juan Carlos Molina García 1[autor]
Resumen
Las capacidades para la investigación de los jóvenes universitarios se fortalecen a través de
la investigación misma y del aprender haciendo en un ambiente académico que favorezca la
búsqueda de soluciones a problemas del mundo real.
El ITM con su línea de investigación en Didáctica y ambientes de enseñanza de las Ciencias,
genera un espacio de participación dirigido a estudiantes interesados en profundizar sobre
temas relacionados con metodologías y herramientas para la investigación. En este sentido, el
Semillero de Didáctica y Medios de Aprendizaje de las Ciencias Básicas adscrito a la anterior
línea, se convierte en un espacio para concretar acciones de formación en investigación a
través talleres que apuntan al desarrollo de herramientas informáticas útiles tanto para el
aprendizaje, como para la Investigación.
De manera particular y mediante actividades de trabajo independiente realizadas a partir del
desarrollo de talleres dirigidos, se ha venido profundizando en el estudio del software Matlab y
sus potencialidades como una ayuda informática que favorece el mejoramiento académico de
los estudiantes. De manera puntual, se ha venido trabajando sobre los comandos, funciones y
estructuras de programación que provee esta herramienta para desarrollar modelos que
contrastan conceptos matemáticos con estructuras de visualización.
Como un resultado práctico de estas actividades, se presenta el diseño de una aplicación
para generar sólidos de revolución en el espacio tridimensional. El diseño de esta aplicación,
ha requerido el manejo de las estructuras matemáticas que definen la integral definida de una
función real a la vez que ha fomentado en los estudiantes habilidades para programar en este
software informático. En síntesis, estas actividades han permitido la apertura de espacios en
los que se favorecen las capacidades de los estudiantes para trabajar con una herramienta útil
y además válida en procesos de investigación científica.
Introducción
La investigación educativa en la actualidad tiene un carácter propio en la medida
que intenta resolver problemas prácticos educativos relacionados con la búsqueda de
un mejor desempeño académico de los estudiantes. Dentro de estos problemas
1 Facultad de Ciencias Exactas y Aplicadas, Semillero de Investigación Didácticas y medios de aprendizaje de las ciencias básicas,
Instituto Tecnológico Metropolitano, Medellín. Correo electrónico: [email protected]
14
prácticos, en el campo de las Ciencias, cabe mencionar aquellos relacionados con los
ambientes educativos y su incidencia en el desarrollo de habilidades para la
investigación. Lo anterior implica una transformación de las prácticas docentes en
relación a sus estrategias de enseñanza, para que éstas permitan cualificar los
procesos académicos de los estudiantes y con ello, acercarlos a procesos de
investigación.
Por esto se hace necesario fomentar el mejoramiento de la enseñanza para el
aprendizaje mediante la generación de espacios académicos que involucren de
manera más acentuada la participación de los estudiantes.
En la consolidación de estos propósitos, el semillero de Didáctica y medios de
aprendizaje de las Ciencias Básicas busca abrir espacios académicos de formación en
investigación para estudiantes interesados en desarrollar habilidades y competencias
que les permita hacer parte de equipos académicos con intereses investigativos en
distintas áreas del conocimiento. El trabajo, mediante la metodología de talleres y
actividades de trabajo independiente, ha posibilitado profundizar sobre las distintas
funciones que provee el Matlab como recurso didáctico de aprendizaje y herramienta
informática para la investigación (Gil, 2003). Es así como, se presenta una aplicación
diseñada en Matlab a través de una Interfaz gráfica de usuario que permite visualizar
el sólido de revolución que se obtiene de generar el área entre dos curvas alrededor
del eje x (Stewart J. 2008).
Marco Teórico
La educación superior debe garantizar una plataforma conceptual para la formación
del pensamiento crítico y el desarrollo de la sensibilidad de sujetos que han de
interactuar en los diversos contextos que favorecen el desarrollo humano, científico y
social. En nuestro medio son cuestionados los resultados que muestran los
indicadores que miden el desarrollo social y los avances en la productividad técnico-
científica, situación que pone en evidencia una baja competitividad, en especial, sobre
temas relacionados con procesos de investigación.
En Colombia, el interés por posicionar las actividades de ciencia y tecnología se
hace evidente con la implementación de políticas públicas que buscan ubicar la
investigación como un asunto clave en el desarrollo del país. Tal es el caso de la Ley
de Ciencia y Tecnología que busca fortalecer una cultura basada en la generación,
apropiación y divulgación del conocimiento a través de: la investigación científica, el
desarrollo tecnológico, la innovación y el aprendizaje permanente. En el mismo
sentido, el documento COMPES 2009 establece la Ciencia, la Tecnología y la
Innovación (CTeI) como un camino para el desarrollo que se fundamenta en el
incremento de la capacidad de la nación para producir y emplear el conocimiento
tecnológico y científico.
15
Por su parte, las Instituciones de Educación Superior deben promover los semilleros
de investigación como espacios para ejercer la libertad, la crítica académica, la
creatividad y la innovación (Oquendo, 2007). Los semilleros de investigación permiten
la participación de los estudiantes en la gestión de proyectos de investigación
mediante la apertura de espacios en los que se comprende que investigar es un
proceso unido a la formación donde se aprende a aprender y se descubre nuevo
conocimiento y métodos de aprendizaje (Torres, 2005). Las actividades desarrolladas
en el marco de la estrategia de semillero, propician la reflexión y el análisis entorno a
las tendencias didácticas y pedagógicas que docentes y estudiantes emplean en sus
quehaceres educativos de forma que se puedan buscar nuevos caminos que
resignifiquen los aprendizajes (Zapata G et al., 2012). En este sentido, se busca
contribuir a la generación de ambientes educativos favorables a través del desarrollo
de habilidades para la investigación que generen espacios de reflexión hacia la
construcción de alternativas de solución de los problemas en que intervienen los
ambientes educativos como factores que obstaculizan o favorecen la enseñanza y el
aprendizaje de las ciencias básicas y aplicadas.
El trabajo independiente direccionado a partir de estos procesos, ha sido concebido
como proceso didáctico a partir del cual se incide en la formación integral del
profesional. Es una propuesta para lograr aprender y enseñar en la sociedad del
conocimiento, a través del tránsito flexible del estudiante por su formación, tomando
en cuenta su vinculación con la práctica, el entorno y el uso de las tecnologías.
El trabajo colaborativo entre el profesor y el estudiante compromete a cada
miembro con la formación personalizada desde lo grupal, donde cada uno aporta
conocimientos en beneficio social, se constituyen ideas novedosas y a la vez
consecuente con la época; hace más viable, humano y esencial el proceso formativo
(Román & Herrera, 2010).
Metodología Empleada
En lo metodológico, el trabajo se ha desarrollado mediante estrategias de trabajo a
nivel grupal e individual. El trabajo en grupo se orienta a través de talleres, sesiones
de discusión, desarrollo de guías de actividades y demás actividades que favorezcan
el trabajo colaborativo. El trabajo individual se concreta en lectura y análisis de
documentos, generación de secuencias y articulación de funciones que siguen una
lógica de programación estructurada.
16
Resultados y Conclusiones
Los contextos de aprendizaje fundamentados en el desarrollo de aplicaciones con
herramientas informáticas, acercan al estudiante al dominio de conceptos y
procedimientos propios del área de Ciencias Básicas. En este sentido, los programas
computaciones como el Matlab permiten la configuración de herramientas para la
investigación que favorecen la experimentación y posibilitan que los estudiantes
participen del logro de conocimientos y de la apropiación de significados relacionados
con diversos objetos matemáticos
Referencias
Gil Rodriguez, M. (2003). Introducción rápida a Matlab y Simulink para Ciencia e Ingeniería. Madrid:
Ediciones Díaz de Santos.
Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,
tecnología e innovación. Departamento Nacional de Planeación(DNP). República de
Colombia. Documento 3582: Bogotá.
Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación
formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación
Román C. E. & Herrera R. J. (2010). Aprendizaje centrado en el trabajo independiente. Revista
Educación y educadores, 13(1), 91–106.
Stewart J. (2008). Cálculo trascendentes tempranas (Sexta ed). Mexico, Cengage Learning.
Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 29 de
abril de 2015 de
http://scholar.google.es/scholar?hl=es&q=Para+qu%C3%A9+los+semilleros+de+investigac
i%C3%B3n&btnG=&lr=
Zapata G., Dominguez J., Molina J.. (2012). Didáctica reflexiva en educación superior: Una mirada
desde el relato autobiográfico. Editorial académica española.
17
Diseño e implementación de un
sistema de comunicación silenciosa
dual basado en habla subvocal
José Daniel Ramírez Corzo 2[autor]
Luís Enrique Mendoza 2[autor]
Resumen
Con la realización de este proyecto se pretende mantener una conversación entre dos
personas sin que ninguna de ellas mueva los labios, siendo está una forma práctica de
telepatía denominada habla subvocal. Para ello se diseñará un dispositivo de captura,
amplificación y filtrado de las minúsculas señales eléctricas del habla subvocal provenientes
del nervio de la garganta que controlan el habla. Dichas señales son generadas al momento
hablar o leer silenciosamente, es decir cuando un lector imagina el sonido de una lectura tal y
como se lee, el cerebro en ese momento envía señales al sistema vocal incluso cuando se tiene
la boca cerrada. Al capturar y procesar estas señales electromiográficas mediante un protocolo
de comunicación serán enviadas a un ordenador que con ayuda de un software especializado
se implementará un algoritmo que analice los registros, los procese y extraiga las
características de palabras en el idioma español. Para así posteriormente mediante una
comunicación inalámbrica bidireccional punto a punto utilizando la tecnología Bluetooth que
ofrece una las ventajas de operar a una frecuencia libre y la capacidad de enlazar con otros
dispositivos de diferentes fabricantes, enviar esta información hacia un receptor que capture y
reconozca dichos patrones reenviando un recibido u okey, para así enlazar una comunicación.
Finalmente con la realización de este proyecto se pretende validar la robustez del sistema de
comunicación silenciosa con dos personas sin carencias en el habla.
Introducción
La idea de tener una conversación secreta que no se encuentre afectada por fuentes
externas de interferencia, que de prestaciones de privacidad y seguridad, es cambiar
el concepto de comunicación auditiva que se conoce hoy en día, Pensar en una forma
de comunicación que pueda solventar algunos de los problemas de personas que
padezcan parálisis en sus cuerdas bucales, niños con problemas para producir
sonidos del habla correctamente o con trastornos motrices o diplejías sería un gran
2 Programa de Ingeniería Electrónica, Semillero de Investigación en Ingeniería Biomédica y Telecomunicaciones, Universidad de
Pamplona, Pamplona (Norte de Santander). Correo electrónico: [email protected]
18
avance en la ingeniería y la ciencia. La necesidad de implementar un sistema de
comunicación silenciosa que permita mejorar la calidad de vida de las personas que
padezcan de alguna dificultad para comunicarse es una de muchas de las razones que
el habla subvocal se convierta en una tecnología aplicable a este y otros diversos
campos.
Marco Teórico
Los órganos que intervienen en el proceso del habla son los pulmones (que sirven
como reservorio de aire), la laringe (que es la fuente de la cualidad periódica del
estímulo de los sonidos “vocalizados”) y la faringe, la cavidad oral y la nasal y las
estructuras que incluyen (la lengua, los dientes y los labios), que modifican los
sonidos del habla que finalmente produce el hablante. La laringe, es la fuente de los
sonidos del habla y el resto del tracto vocal actúa como filtro que modula la energía
sonora de la fuente. La frecuencia de oscilaciones, que constituyen lavase de los
sonidos de la lengua hablada, varía de unos 100 a unos 400Hz, lo que depende del
sexo, el tamaño del cuerpo y la edad de la persona que habla [3].
El habla subvocal es el conjunto de las señales eléctricas que inervan los músculos
participes del proceso subvocalización refiriéndose principalmente al movimiento real
de los músculos asociados con el habla mencionados anterior mente, estas señales
eléctricas se presentan sin ser necesaria la producción física de sonido por parte del
individuo, lo cual se conoce como procesos de lectura y pensamiento silencioso. A
estas señales se le denominan señales electromiográficas (EMG) y son obtenidas en la
superficie de la laringe y las áreas sublinguales. La subvocalización es una parte
inherente de la lectura y la comprensión de las palabras, y las pruebas sugieren que
es imposible de eliminar. Inhibir el proceso de subvocalización puede llevar a daños
potenciales en la comprensión, el aprendizaje y la memorización [3].
Otro aspecto teórico importante a tener en cuenta durante el desarrollo del
proyecto, es la electromiografía. La electromiografía es el estudio de la actividad
eléctrica de los músculos del esqueleto. Proporciona información muy útil sobre su
estado fisiológico y el de los nervios que los activan. La Electromiografía (EMG) y las
pruebas de conducción nerviosa constituyen los métodos de electrodiagnóstico más
útiles en el estudio de la función motriz. Su valor diagnóstico presenta una serie de
cualidades:
- Objetividad elevada, especialmente si se hace uso de las técnicas
electromiográficas de carácter cuantitativo [4].
- Precocidad en el diagnóstico. Se manifiesta tanto en el diagnóstico
anatomopatológico, señalando la magnitud de la lesión (compresión, sección
afónica sección de nervio, etc), como en el diagnóstico topográfico,
19
pudiendo, en muchas ocasiones, concretar el asiento quité de la afección
(médula, raíz anterior, plexos nerviosos, troncos nerviosos, etc). [4].
- Rapidez en el pronóstico, dando cuenta de los primeros signos de
regeneración nerviosa antes de cualquier manifestación clínica. [4].
La calidad de la medición de la señal EMG del habla subvocal depende enormemente
de la preparación de la piel y el posicionamiento de los electrodos. La estrategia
principal de la implantación de los electrodos es la preparación de la piel para que
tenga una baja impedancia. Los amplificadores EMG son diseñados para niveles de
impedancia entre 5 y 50 KΩ. [3].
Debido al carácter no invasivo son usados los electrodos de superficie para capturar
el habla subvocal o para estudios electromiográficos. Además del beneficio del fácil
manejo, su limitación principal es que solo registran los músculos superficiales. Para
músculos más profundos, cubiertos por músculos o huesos, es necesario usar
electrodos de aguja. El inventario Europeo muestra que los electrodos circulares con
un diámetro de 10 mm son los más usados. Para configuraciones bipolares, en
general, el tamaño de electrodos debe ser lo suficientemente grande para poder
capturar un conjunto razonable de unidades de motoras, y lo suficientemente
pequeño para evitar la interferencia de otros músculos [3].
A partir de la captura de las señales electromiográficas, los amplificadores EMG
actúan como amplificadores diferenciales y su cualidad principal es la habilidad de
rechazar o eliminar la mayor cantidad de ruido. La amplificación diferencial detecta la
diferencia de potencial entre los electrodos y cancela las interferencias externas. La
señal EMG sin amplificar posee voltajes entre un µV y 2-3 mV. La señal generalmente
es amplificada por un factor menor a 500, cuando se usan preamplificadores, ó 1000,
cuando se usan cables pasivos. La impedancia de entrada de un amplificador debe
tener un valor por lo menos de 10 veces la impedancia propia del electrodo. El rango
de frecuencia de un amplificador EMG debe comenzar en 10Hz (pasa alto) y finalizar
en 500Hz (pasa bajo). [3].
A menudo existe la necesidad de implementar varios tipos de filtros, unos se
utilizan en el acondicionamiento de las propiedades de la señal EMG, implementando
filtros análogos, con la finalidad de extraer la señal en banda base que contiene la
información biométrica relevante y para eliminar algunos tipos de ruido eléctrico, y
otros en la digitalización de la señal para su posterior procesamiento. [3].
Prácticamente todos los análisis y aplicaciones de señales electromiográficas
superficiales (SEMG) se llevan a cabo mediante algoritmos implementados en
computadores. La naturaleza de estos algoritmos y de las computadoras requiere que
las señales sean expresadas en secuencias numéricas. EL proceso mediante el cual
las señales detectadas se convierten en estas secuencias numéricas "entendibles” por
20
las computadoras se llama conversión digital analógica. Las señales analógicas son
señales de tensión que son análogas a la señal física que representan. La amplitud de
estas señales varía continuamente a lo largo de su rango. El proceso de conversión
análoga-digital genera una secuencia de números, y cada número representa la
amplitud de la señal analógica en un determinado punto en el tiempo. La secuencia
de números resultante se llama una señal digital y la señal analógica es llamada señal
muestreada. [3].
Para la reconstrucción de cualquier señal análoga se debe muestrear al menos al
doble de su frecuencia. Esta regla se conoce como el Teorema de Nyquist. Violar el
Teorema de Nyquist conduce a una reconstrucción errónea de la señal, normalmente
se conoce como aliasing. El teorema de Nyquist es válido para todas las señales
analógicas.
Para la transferencia de las señales electromiográficas que hacen parte del habla
subvocal se pretende utilizar una tecnología inalámbrica como la Bluetooth, este
estándar emplea un radio modem de corto alcance orientado a aplicaciones de
comunicaciones móviles inalámbricas portables, con gran ahorro de energía eléctrica
y reducidas dimensiones físicas. Una red inalámbrica personal (WPAN) está en la
capacidad de manejar canales de comunicaciones sincrónicos orientados a servicios
telefónicos de voz, y soporta además canales de comunicaciones asincrónicas
orientadas al manejo de datos digitales. Las características técnicas mencionadas
facilitan la interconexión de una gran cantidad de aplicaciones y de equipos en una
WPAN, por ejemplo, un equipo de telefonía móvil puede emplear canales del tipo CSD
(circuito de datos conmutados) para transportar audio desde y para un receptor en el
encabezado, mientras se encuentra utilizando un canal packet - switched para
transferir datos con una computadora portátil. Una red inalámbrica personal opera
típicamente en la banda de los 2.4 GHz [5].
Metodología Empleada
En este proyecto se pretende realizar un dispositivo embebido de adquisición,
acondicionamiento codificación y procesamiento de las minúsculas señales eléctricas
provenientes del miembro de la garganta que controla el habla para así mantener una
conversación discreta entre dos personas sin que ninguna de ellas mueva los labios,
siendo está una forma práctica de telepatía denominada Habla Subvocal.
El Habla Subvocal se da principalmente en el cartílago tiroides, al momento hablar o
leer silenciosamente el cerebro envía señales eléctricas al sistema vocal incluso
cuando se tiene la boca cerrada. Estas señales serán registradas mediante
electromiografía no invasiva con electrodos superficiales de Cloruro de Plata(AgCl)
dispuestos en la superficie de la laringe en una configuración bipolar, teniendo el
21
electrodo de referencia atrás de la oreja y los electrodos de detección en la parte
izquierda inferior y derecha superior de la laringe, una vez ubicadas estas señales
electromiográficas, se procedió a desarrollar un dispositivo electrónico de
acondicionamiento y codificación de estas señales que constituido por varias etapas
que son:
Etapa de adaptación de impedancias la cual permitirá que no haya inversiones de
polaridad, cambios de la fase o de amplitud de la señal EMG. [2]
Etapa de pre - amplificación, que mediante el uso de un amplificador de
instrumentación que proporciona una salida amplificada con base a la diferencia entre
las dos entradas provenientes de los dos electrodos que previamente fueron
acoplados a un punto donde la señal EMG no fuese saturada. [2]
Etapa de amplificación usando un amplificador operacional configurado como
amplificador no inversor de ganancia constante, se amplificara la señal proveniente de
la etapa de pre - amplificación. [2]
Etapa de filtrado que mediante la implementación de un filtro activo Butterworth de
orden ocho diseñado para mejorar la relación señal/ruido de la señal EMG
proporcionando una señal con suficiente amplitud para ser digitalizada y enviada a
una tarjeta de desarrollo para el procesamiento con el fin de extraer y observar la
información relevante de las señales EMG provenientes de la laringe. [2]
Una vez acondicionada y codificada estas señales serán procesadas utilizando
técnicas avanzadas en procesamiento de señales como Support Vector Machine y
Deep Learning haciendo uso de la tarjeta de desarrollo Raspberry PI modelo B para el
procesado de los registros digitalizados de las señales EMG, extrayendo
características de palabras en el idioma español. Para así desarrollar una
comunicación inalámbrica bidireccional punto a punto usando tecnología Bluetooth
entre dos personas sin carencias del habla usando máximo 10 palabras, inicialmente
se reconocerán 7 palabras incursionando en tres campos donde el Habla Subvocal
ofrece soluciones como:
- Al momento de establecer una conversación. Reconociendo palabras como:
Hola y ¿Cómo está?
- Personas diplejías. Reconociendo palabras como: Tengo sed, Frio y abrir.
- Intercambio de información militar. Reconociendo palabras como: Intruso,
QAP (siglas que indican estamos en contacto).
22
Resultados y Conclusiones
Al concluir el proyecto en su totalidad, se espera plasmar las características
relevantes en la elección y criterio de componentes para las etapas de adquisición y
acondicionamiento de señales electromiográficas, implementar una tarjeta de
adquisición, acondicionamiento y codificación de señales electromiográficas del Habla
Subvocal.
Además se obtendrán los registros de señales electromiografías provenientes de las
cuerdas bucales en un sistema embebido Raspberry pi, y luego se procederá a extraer
los patrones más relevantes de palabras a partir de las señales electromiografías,
usando el entorno de programación Python y Maquinas de soporte vectorial.
Referencias
[1]. IEEE Explored digital library [En línea].
http://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText=SUBVOCAL+SPEECH
&x=42&y=20 [citado el 9 de junio del 2015]
[2]. Patrones electromiográficas del habla subvocal, registro y clasificación [EN LÍNEA]
http://www.uelbosque.edu.co/sites/default/files/publicaciones/revistas/revista_tecnologia/volume
n12_numero2/3Articulo_Rev-Tec-Num-2.pdf [citado el 9 de junio del 2015]
[3]. Jesús Peña Rodríguez, Adquisición y procesamiento de señales electromiográficas basadas en
habla subvocal diciembre de 2010
[4]. Instrumentación biomédica [En línea]
http://www.bioingenieria.edu.ar/academica/catedras/bioingenieria2/archivos/apuntes/tema%205%
20-%20electromiografia.pdf [citado el 9 de junio del 2015]
[5]. El estándar Bluetooth IEEE 802.15.1.[en línea]
http://catarina.udlap.mx/u_dl_a/tales/documentos/lem/archundia_p_fm/capitulo3.Pdf [citado el 9
de junio del 2015]
23
Diseño e implementación de un
sistema para clasificación de
caracteres obtenidos de señales
electroencefalográficas (EEG) aplicado
en pacientes con problemas de afasia
motriz
Germán Arley Portilla González 3[autor]
Luís Enrique Mendoza 3[autor]
Resumen
Este trabajo presenta una alternativa para la corrección de afasia motriz provocada por
accidentes cerebrovasculares, mediante toma de señales en puntos de acceso específicos sobre
la cabeza del paciente, que serán acondicionadas y llevadas a un sistema de filtrado digital,
donde se extraerán los parámetros a partir de los impulsos eléctricos neuronales, y luego se
clasificarán los patrones determinando el carácter que el paciente desee evocar o realizar. Las
afasias de tipo motriz causan en la persona problemas de tipo sicológico debido a la pérdida
del lenguaje, por consiguiente pueden entender lo que sé les dice, pero pierden la capacidad
para expresarse o emitir sonidos claros y asimilables por quien los oye, en muchos casos se
presenta una agrafia concomitante ,que se relaciona con la incapacidad expresar los
sentimientos escrito por , esta falla cerebral se presenta sobre el área de broca, donde se
manejan los impulsos aferentes de la articulación y modulación del lenguaje.
Introducción
Desde hace mucho tiempo ha existido un genuino interés por relacionar los
aspectos del lenguaje con la mente, el cerebro y el pensamiento. Los estudios
llevados a cabo por Broca, Wernicke y Lichtheim en la segunda mitad del siglo XIX
fueron fundamentales para establecer conexiones entre el lenguaje y el cerebro a
partir de dificultades en la codificación y decodificación del lenguaje manifestadas en
3 Programa de Ingeniería Electrónica, Semillero de Investigación en Ingeniería Biomédica y Telecomunicaciones, Universidad de
Pamplona, Pamplona (Norte de Santander). Correo electrónico: [email protected]
24
diferentes pacientes (Fernández, 1998). El lenguaje es una capacidad humana
específica que se manifiesta en forma de conducta observable consistente en signos
verbales o de otro tipo, como los gestuales y tiene una realidad mental, fisiológica,
psicológica y biológica (Alonso-Cortés, 2002).
El lenguaje es un proceso cognitivo complejo que gira, por un lado, en torno al
proceso de comprensión, definido como la capacidad de entender e interpretar el
lenguaje hablado y en el que intervienen factores cognitivos (atención, memoria,
percepción) involucrados para llegar a la interpretación de unidades macro y
microestructurales. Por otro lado, la producción, referida al proceso de programación
y realización de la acción de hablar. (Cummings, 2008).
Marco Teórico
La afasia es un trastorno de la función del lenguaje causado por una lesión cerebral.
La causa habitual es un accidente cerebrovascular producido por la oclusión vascular
de la arteria cerebral media izquierda. (Fitzgerald, 2012).
Durante el habla se observa actividad en varias áreas de la corteza, sobre todo en el
lóbulo frontal. No obstante existen dos áreas que están específicamente destinadas a
esta función. (Fitzgerald, 2012).
El paciente expresa las palabras y los verbos importantes, pero omite preposiciones
y conjunciones. Entiende lo que dicen otras personas y es consciente de que es
incapaz de hablar con fluidez. Habitualmente suele haber una agrafia concomitante
(incapacidad de expresar los pensamientos por escrito). Si la lesión afecta a una
cantidad considerable del territorio cortical de la arteria cerebral media, habrá una
debilidad motora de la cara derecha inferior y del miembro superior derecho. Como
los labios y la lengua se ven afectados en el lado derecho, el paciente también
presentara disartria (dificultad de articular el habla), por lo que articulara mal
determinadas silabas. (Fitzgerald, 2012).
La lateralidad manual a menudo determina el hemisferio dominante del control
motor. Lo normal es la dominancia del hemisferio izquierdo/mano derecha. Los
avances en la tecnología ecográfica han permitido observar el comportamiento motor
del feto y se han observado que la lateralidad manual se establece antes del
nacimiento a partir de la mano preferida utilizada para chupar el pulgar durante la
vida fetal. . (Fitzgerald, 2012).
En 1861, el patólogo francés Pierre Broca asignó la función motora del habla al giro
frontal inferior del lado izquierdo. La principal área ocupa las porciones opercular y
triangular del giro frontal inferior, correspondientes a las áreas 44 y 45 de Brodmann.
25
Ambas áreas son más grandes en el lado izquierdo en personas diestras. La principal
referencia del área de Broca es hacia las columnas celulares en las áreas de la cara y la
lengua de la corteza motora adyacente. (Fitzgerald, 2012).
Las lesiones que aplican en el área de broca a la afasia expresiva. Algunos
colaboradores opinan que la afasia expresiva requiere la lesión adicional del extremo
inferior al giro precental (Duane. Haines, 2012).
Desde su desarrollo inicial, el EEG sigue siendo la única herramienta para el estudio
de la función cortical y un valioso complemento del historial clínico, la exploración
física y la información obtenida en los estudios radiológicos. Cuando se colocan
pequeños electrodos de disco metálico en la superficie del cuero cabelludo, pueden
detectarse corrientes oscilatorias de 20-100 µV que se conocen como
electroencefalograma (EEG). Su origen es una consecuencia directa del efecto aditivo
de grupos de neuronas corticales piramidales que se organizan en columnas radiales
(dirigidas hacia el exterior). En este contexto, las columnas relevantes son las que
están situadas debajo de la superficie de los giros corticales. Como los potenciales de
membrana de estas columnas fluctúan, se desarrolla un dipolo eléctrico (áreas
adyacentes de carga opuesta), (Waxman, 2011).
Para un perfecto acople de las señales EEG con el sistema de adquisición se deben
ubicar unos electrodos los cuales poseen unas impedancias definidas, al ubicar dichos
electrodos deben ubicarse sobre el cuero cabelludo el cual debe estar preparado de
una forma específica sin grasas o polvo para que los voltajes que entreguen se
encuentren dentro del rango esperado. Los amplificadores EEG son diseñados para
niveles de impedancia entre 5 y 50 KΩ (Malmivuo).
El criterio más importante del proyecto es que no es invasivo, esto significa que los
electrodos para la adquisición de las señales se ubicaran sobre el cuero cabelludo,
dichos electrodos deben ser de uso EEG, en este caso electrodos de 10mm los cuales
poseen un recubrimiento en oro (Au) esto nos ayudara a evitar pérdidas por acope,
pero debemos adicionar un gel o pasta conductora y un adhesivo externo para que el
acople se dé de manera esperada, minimizando fallas por contactos al aire.
Por medio de la captura de señales electroencefalográficas, los amplificadores EEG
actúan como amplificadores diferenciales y su cualidad principal es la habilidad de
rechazar o eliminar la mayor cantidad de ruido. La amplificación diferencial detecta la
diferencia de potencial entre los electrodos y cancela las interferencias externas. La
señal EEG sin amplificar posee voltajes entre un µV y 500µ V. La señal generalmente
es amplificada por un factor a 500, menor cuando se usan preamplificadores, ó 1000,
cuando se usan cables pasivos. La impedancia de entrada de un amplificador debe
tener un valor por lo menos de 10 veces la impedancia propia del electrodo. El rango
de frecuencia de un amplificador EEG debe comenzar en 0.5Hz y finalizar en 10Hz.
26
Se deben implementar filtros, para lograr que las señales obtenidas del acople no
posean componentes de ruido que hagan que el sistema falle periódicamente por
esta razón se debe ubicar un filtro pasa baja y un filtro pasa alto para delimitar
nuestro espectro de señal EEG.
Metodología Empleada
La metodología empleada para la realización del sistema de clasificación de
caracteres debe cumplir con una serie de tareas que se ilustran a continuación:
- Estudio de bibliografía de señales electroencefalográficas
- Búsqueda de los sitios de interés para la ubicación de los electrodos
- Estudio del criterio de selección componentes
- Diseño de las etapas de adquisición, amplificación y transmisión de las
señales.
- Diseño de placas de circuitos para amplificación.
- Adquisición acondicionamiento y codificación.
- Diseño de los algoritmos para adquisición y filtrado
- Selección de técnicas de procesamiento.
- Obtención de patrones.
- Diseño de interfaz para la visualización de caracteres.
- Búsqueda del paciente para efectuar pruebas de pensamiento.
- Redacción y ajuste de la investigación.
- Redacción de artículo científico para publicar en medios nacionales o
internacionales.
Resultados y Conclusiones
Al finalizar la realización del presente trabajo de grado se pretende lograr estos
cinco resultados:
- Plasmar las características relevantes en la elección y criterio de
componentes para las etapas de adquisición y acondicionamiento de señales
electroencefalográficas.
- Implementar una tarjeta de adquisición, acondicionamiento y codificación de
señales electroencefalográficas.
- Diseñar e implementar un casco donde se ubicaran los electrodos en la
posición esperada.
- Trasmitir los caracteres a partir de señales EEG en una interfaz gráfica.
27
- Elaborar un artículo científico para su posterior publicación en una revista
indexada.
Referencias
Hausfeld, L. (2012). Pattern analysis of EEG responses to speech and voice: Influence of feature
grouping. NeuroImage, 3641–3651.
Thakor, n. (2012). IEEE lifesciences . Recuperado el 22 de 04 de 2015, de building brain machine
interfaces speech and comunication:
http://lifesciences.ieee.org/publications/newsletter/may-2012/103-building-brain-
machine-interfaces-speech-language-and-communication
Utianski, R. L. (2014). Cortical characterization of the perception of intelligible . Brain & Language,
48-54.
FitzGerald, M. J. (2012). Neuroanatomía clínica y neurociencia. España: Elsevier.
Haines, D. E. (2002). Principios de neurociencia. Elsevier.
Malmivuo, J. (s.f.). Bioelectromagnetism. Recuperado el 28 de 03 de 2015, de http://www.bem.fi/
Waxman, s. g. (2011). Neuroanatomia clinica. Mac Graw - Hill .
28
Ocultamiento de señales de voz en
imágenes RGB por medio de la
técnica QIM
Carlos Steven Vargas Hernández 4[autor]
Dora María Ballesteros Larrotta 4[autor]
Resumen
En este trabajo se oculta un audio en una imagen RGB por medio del método Quantization
Index Modulation (QIM), el cual puede ser aplicado tanto en esteganografía como en
WaterMarking. En este caso se ocultó información con fines esteganográficos. Para poder
aplicar el método de QIM, se escogió una imagen huésped con dimensiones de 256X256
(ancho por alto), y un audio con una duración de 1 segundo, frecuencia de muestreo de 8KHz y
8 bits/muestra. Una vez que ha ocultado el audio secreto en la imagen huésped, se comparó
esta última con la imagen stego por medio del coeficiente de correlación cuadrático (SPCC), por
medio de histogramas, y por medio del criterio de vecinos, con el fin de verificar la
transparencia de la imagen a transmitir.
Como un resultado práctico de estas actividades, se presenta el diseño de una aplicación
para generar sólidos de revolución en el espacio tridimensional. El diseño de esta aplicación,
ha requerido el manejo de las estructuras matemáticas que definen la integral definida de una
función real a la vez que ha fomentado en los estudiantes habilidades para programar en este
software informático. En síntesis, estas actividades han permitido la apertura de espacios en
los que se favorecen las capacidades de los estudiantes para trabajar con una herramienta útil
y además válida en procesos de investigación científica.
Introducción
El envió de información confidencial por medio de canales comerciales es un
problema real, ya que la información que es enviada puede ser interceptada
fácilmente. La esteganografía es una de las soluciones al problema mencionado, ya
que la información se oculta en datos que no son de carácter confidencial. Esta
información puede ser recuperada por el usuario que conoce la clave de extracción.
4 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada,
Bogotá. Correo electrónico: [email protected]
29
Marco Teórico y Estado del Arte
La esteganografía es la práctica de ocultar o camuflar datos secretos en un
contenedor buscando imperceptibilidad. Este huésped puede ser una imagen, archivo
de audio o de vídeo. [2]
La palabra esteganografía proviene de las palabras griegas, “estegano” que significa
oculto y “grafía” que quiere decir escritura, de ahí que la palabra “esteganografía”
signifique “escritura oculta”. Los métodos esteganográficos deben satisfacer 3
condiciones [1]:
- Capacidad: es la cantidad de información que puede ser embebida en la
señal huésped sin afectar su calidad perceptual. [1]
- Transparencia: evalúa la similitud entre la imagen huésped y la imagen
stego. Idealmente, debe ser los más alta posible. [1]
- Robustez: es la capacidad que tiene la imagen stego para resistir ataques
pasivos de manipulación de señal, como filtrado y rotación. El objetivo es
que la información secreta permanezca dentro de la imagen stego después
de los ataques [1].
En el caso de la esteganografía de imágenes, se utiliza una imagen como señal
huésped, donde se oculta la información secreta. A la imagen huésped que ya tiene
embebidos los datos del mensaje secreto se le denomina imagen siego [3].
En [2] se presentan dos métodos esteganográficos de imágenes utilizando QIM en el
dominio de la transformada discreta del coseno (DCT). Los métodos propuestos
muestran una alta capacidad de ocultamiento y se conserva el comportamiento del
histograma.
En [3] se presenta un nuevo método esteganográfico donde se incrustan datos en
valores de error cuantizados, a través de QIM. Este nuevo método tiene un buen
equilibrio entre imperceptibilidad, capacidad de ocultamiento, y robustez. El método
aplicado tiene una alta calidad visual y una baja distorsión del histograma.
Metodología Empleada
Los pasos utilizados en el esquema propuesto se presentan a continuación:
a. Se lee la imagen huésped (figura 1) y el audio secreto (figura 2).
30
Figura 1. Imagen huésped. La imagen fue capturada del sitio web http://southpark.cc.com/.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Figura 2. Audio secreto. La imagen fue elaborada por los autores.
b. Se convierte el archivo de audio a una cadena de valores binarios. Cada
muestra de la señal de voz se representa con 8 bits.
c. Se divide la imagen huésped a color en 3 bandas (R, G, B), las cuales se
presentan en las figuras 3, 4, y 5 respectivamente.
Figura 3. Banda R (Red). La imagen fue elaborada por los autores.
31
Figura 4. Banda G (Green). La imagen fue elaborada por los autores.
Figura 5. Banda B (Blue). La imagen fue elaborada por los autores.
d. Se escoge la banda R para ocultar el audio y se aplica el método QIM con pasos
(delta) de 5. Las ecuaciones utilizadas se presentan en la figura 6, escritas en el
entorno de Matlab.
Figura 6. Trozo del código empeado para aplicar el método QIM para ocultar datos. La imagen fue
elaborada por los autores.
Las posiciones de la imagen en las cuales se aplica la cuantización QIM se guardan
en una clave, la cual se utilizará en el módulo de extracción del mensaje secreto.
32
e. Con la banda R modificada, se vuelve a construir la imagen a color, la cual se
transmite y se conoce como imagen stego.
f. En el receptor se realiza el proceso de extracción del mensaje secreto, para lo
cual se utiliza la clave y la imagen stego. Se descompone la imagen stego en las tres
bandas y se selecciona la banda R. La extracción obedece a las ecuaciones que se
presentan en la Figura 7.
Figura 7. Fracción del programa mostrando la aplicación del método QIM para extraer datos. La
imagen fue elaborada por los autores.
g. Dado que la información obtenida en el paso anterior corresponde a bits, el
último paso consiste en convertir por grupos de 8 bits la información a decimal. De
esta forma se obtiene el archivo de voz recuperado.
Resultados y Conclusiones
a. En las figuras 8 y 9 se presentan los histogramas de la imagen host y la imagen
stego respectivamente. Se resalta que visualmente no se detecta un cambio en los
histogramas.
0
200
400
600
800
1000
1200
1400
1600
0 50 100 150 200 250
Figura 8. histograma imagen host. La imagen fue elaborada por los autores.
33
0
200
400
600
800
1000
1200
1400
1600
0 50 100 150 200 250
Figura 9. histograma imagen stego. La imagen fue elaborada por los autores.
b. Las figuras 10 y 11 presentan la señal de voz secreta y la recuperada. La
calidad de la señal recuperada es alta, ya que guarda una gran similitud con la señal
de voz original.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Figura 10. Mensaje secreto. La imagen fue elaborada por los autores.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Figura 11. Mensaje recuperado. La imagen fue elaborada por los autores.
c. Como criterio matemático, se evaluó el SPCC entre la imagen host y la imagen
stego, y entre el mensaje secreto original y el mensaje recuperado. Los resultados se
presentan en la Figura 12. Debido a que los valores son cercanos a 1, se puede
34
afirmar que la transparencia de la imagen stego es alta y la calidad de la señal de voz
recuperada es lo suficientemente buena.
Figura 12. SPCC. La imagen fue elaborada por los autores.
d. El segundo parámetro de evaluación utilizado es la distorsión de los vecinos.
Si la imagen stego sigue el comportamiento de la imagen host, la distorsión de los
vecinos será muy cercana a cero, en caso contrario este valor será alto. En la prueba
realizada se encontró que este valor es de 0.0087, lo que significa que la apariencia
global de la imagen stego es muy similar a la apariencia global de la imagen huésped.
Como conclusión principal se tiene que el método utilizado genera imágenes con
alta transparencia y permite la recuperación del contenido secreto con gran calidad.
Referencias
[1] Vimal, J., & Alex, A. M. (2014, 10-11 July 2014). Audio steganography using dual
randomness LSB method. Paper presented at the Control, Instrumentation, Communication and
Computational Technologies (ICCICCT), 2014 International Conference on.
[2] Noda, Hideki, Niimi, Michiharu, & Kawaguchi, Eiji. (2006). High-performance JPEG
steganography using quantization index modulation in DCT domain. Pattern Recognition
Letters, 27(5), 455-461. doi: http://dx.doi.org/10.1016/j.patrec.2005.09.008
[3] Izadinia, H., Sadeghi, F., & Rahmati, M. (2009, 8-10 March 2009). A New Steganographic
Method Using Quantization Index Modulation. Paper presented at the Computer and
Automation Engineering, 2009. ICCAE '09. International Conference on.
35
Marcado de audio digital con
imágenes binarias utilizando QIM
Érika Alexandra Pinto Castro 5[autor]
Dora María Ballesteros Larrotta 5[autor]
Resumen
En el presente documento se presenta una técnica para ocultar una marca correspondiente a
una imagen binaria en una señal de audio. El audio final no debe presentar distorsión evidente
en relación a la señal original y la marca debe ser robusta a algunos ataques de manipulación
de señal.
Introducción
Actualmente se presentan diferentes técnicas de ocultamiento de datos o
información como los canales adaptivos, el anonimato, la esteganografía y el marcado
de agua (watermarking). Dentro del marcado de agua se presentan dos alternativas: el
marcado de agua robusto y el marcado de agua frágil. Para el marcado de agua
robusto se encuentran dos aplicaciones: la huella digital y las marcas de agua, las
cuales se clasifican en marcas de agua visibles y marcas de agua no visibles [1].
En el análisis de una de las técnicas de marcado de agua, se pretende demostrar
que dicha técnica logra la imperceptibilidad necesaria al incrustar una imagen binaria
en una señal de audio y que además de ello la señal de audio original logra mantener
sus características principales sin presentar alguna degradación en ésta.
Marco Teórico
El marcado de agua o watermarking es la capacidad de incrustar información en una
señal huésped, esta información puede ser una imagen, un audio, una firma digital,
entre otros. Para realizar un sistema de watermarking en audio se tienen en cuenta
diferentes características, cada una de ellas puede variar dependiendo de la
importancia que presente dentro de una técnica o método de watermarking. Las
5 Programa de Ingeniería Electrónica, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada, Bogotá.
Correo electrónico: [email protected]
36
principales características son imperceptibilidad, robustez y capacidad de
ocultamiento [1] [2].
La imperceptibilidad es uno de los principales requerimientos, ya que se quiere que
al ocultar una marca no se pierda la calidad de la señal de audio y no haya cambios
importantes en la información de la señal. Además la marca solo puede ser detectada
mediante procesos especiales [2].
La robustez es uno de los parámetros más complicados de implementar, ya que la
idea principal es que el marcado permanezca ante cualquier clase de ataques que se
puedan presentar al momento de que alguien ajeno a la señal de watermarking desee
eliminar o modificar la marca. Por lo general los ataques pasivos más comunes son:
compresión MP3, adición de ruido (AWGN), re-muestreo, re-cuantificación, filtrado
pasa-bajo, filtrado pasa-alto, amplificación, recorte de la señal, entre otros [2].
La capacidad de ocultamiento hace referencia a la cantidad de información que se
puede ocultar en una señal de audio. Dependiendo del tipo de señal de audio se
determina la máxima cantidad de datos de la marca [2].
La Técnica QIM (Quantization Index Modulation) es una técnica de ocultamiento de
información, la cual puede ser implementada tanto en esteganografía como en
marcado de agua, esta técnica se basa en ocultar datos binarios en un tipo de
información host o huésped. El ocultamiento de los datos se define por un delta o
pasos de cuantización dentro de la información huésped [3].
Metodología Empleada
Para el desarrollo del presente proyecto se decide utilizar el software Matlab en
donde se implementará el método QIM para ocultar una imagen binaria en un archivo
de audio. El programa se divide en tres etapas, la etapa de ocultamiento, la etapa de
extracción de la imagen y la etapa de prueba de robustez del método empleado.
La señal de audio a utilizar tiene una duración de 5 segundos, con una frecuencia
de muestreo de 44100Hz, la imagen a utilizar es una imagen a color de 256x256, la
cual es binarizada para realizar el proceso de watermarking.
Para el método de ocultamiento de la imagen, se debe descomponer la señal de
audio. Para ello se utiliza el método de la Transformada Discreta Wavelet (DWT), con
el fin de utilizar los coeficientes wavelet para ocultar la imagen, para este caso se
decide realizar tres niveles de descomposición y utilizar el tipo de familia Haar.
Para utilizar la técnica de QIM, se debe definir un delta que indica el valor de los
pasos que va a realizar la cuantización y seguir las diferentes ecuaciones utilizadas
para el proceso de ocultamiento.
37
Al tener oculta la imagen se reconstruye la señal de audio con la transformada
inversa de wavelet y de este forma analizar qué tanto se parece la señal de audio
original con respecto a la señal de audio marcada. Se utiliza el parámetro SPCC
(Squared Pearson Correlation Coefficient), y se guarda la señal de audio marcada en
un nuevo archivo de audio.
Teniendo el nuevo archivo de audio de la señal de audio marcada, se procede a
realizar la extracción de la imagen binaria. Para ello se aplica la DWT en este archivo
de audio con las mismas características que se utilizaron para el proceso de
incrustación, es decir, tres niveles de descomposición y el tipo de familia Haar.
Teniendo los coeficientes wavelet se procede a aplicar las ecuaciones QIM para la
extracción de la marca de agua (imagen binaria), con el fin de conocer si las
características de la imagen permanecen. Luego se reconstruye la imagen, para su
comparación con la imagen original.
Se realiza la adición de Ruido, con el fin de conocer que tan robusta es la técnica de
QIM. Para este caso se le adicionan números aleatorios del tamaño del vector de los
coeficientes wavelet para simular el ruido que se aplica a la señal de audio marcada.
Resultados y Conclusiones
El mejor resultados de SPCC para el caso de incrustación de la imagen, comparando
la señal de audio original, con la señal de audio marcada fue de 0.9984, indicando
que la señal marcada no era totalmente similar a la señal original, pero
perceptiblemente por el oído humano no se diferencia una de la otra. Para el caso de
recuperación de la imagen se logró un valor de SPCC de 0.9992 lo cual indica que
imagen original y la recuperada se parecían.
En la Figura 1 se puede observar la imagen original binarizada, y la imagen
recuperada al realizar la extracción.
Figura 1. Comparación Imagen Original – Imagen Recuperada. La imagen fue elaborada por los
autores.
38
El nivel de ruido que se le añade puede variar dependiendo de que tanto ruido se le
quiere agregar a la señal, teniendo en cuenta que si el nivel de ruido es mayor los
datos en la señal de audio original se ocultan o pierden valor, mientras que si el nivel
de ruido es menor es más sencillo recuperar la imagen incrustada.
En la Figura 2 se observan las imágenes recuperadas al adicionar el ruido, la imagen
mostrada a la izquierda no se recupera debido a que el nivel de ruido es mucho
mayor a la amplitud de la señal de audio, al ir disminuyendo el nivel de ruido se
aprecia la recuperación de la imagen.
Figura 2. Prueba de Robustez con Adición de Ruido. La imagen fue elaborada por los autores.
Referencias
[1] Martínez, Raúl; Nakano, Mariko, “Mejoras de los Métodos QIM mediante Códigos Turbo-
Hadamard para el Marcado de Agua en Audio Digital,” Escuela Superior de Ingeniería Mecánica y
Eléctrica Unidad Culhuacán, Instituto Politécnico Nacional. Junio 2007.
[2] Chauhan, S.P.S.; Rizvi, S.A.M., "A survey: Digital audio watermarking techniques and
applications," Computer and Communication Technology (ICCCT), 2013 4th International Conference
on, vol., no., pp.185, 192, 20-22 Sept. 2013.
[3] D. M. Ballesteros, “QIM (Quantization Index Modulation) ¿En qué consiste QIM?” 2014.
39
Implementación de Sistemas de
Radares análogo y digital
experimentales de bajo costo para
estudios de detección de objetos
José de Jesús Rúgeles Uribe 6[autor]
Luís Eduardo Quibano Alarcón 6[autor]
Resumen
El desarrollo de este proyecto tiene como finalidad analizar el fenómeno de propagación en
un sistema de radar el cual se basa en el efecto Doppler para su funcionamiento. El proyecto
pretende además replicar el sistema de radar analógico propuesto por el instituto tecnológico
de Massachusetts (MIT) que utiliza la técnica de onda continua modulada (FMCW), la cual
permite medir la posición y velocidad de un objeto en movimiento. Una vez implementado el
radar análogo, se procederá a construir un radar utilizando radio definido por software (SDR),
de modo tal que se puedan establecer diferencias entre estos dos sistemas, como lo es
máximo rango, numero de objetos a detectar y máxima velocidad.
Introducción
Las tecnologías de radar son utilizadas en entornos civiles como militares, en
aplicaciones como control de tráfico aéreo; medición de velocidad; análisis del clima;
imágenes SAR; sistemas de penetración terrestre, etc. El uso de este dispositivo ha
evolucionado gracias la integración dada por la electrónica en alta frecuencia y los
avances en las técnicas de procesamiento de señales.
En la academia a nivel mundial las tecnologías de radar generalmente hacen parte
de una formación especializada donde además de los análisis teóricos se realizan
simulaciones y pruebas de laboratorio. En el laboratorio Lincoln del Instituto
Tecnológico de Massachusetts (MIT) cuentan con un curso de radar (Charvat, Fenn &
Perry, 2012) donde los estudiantes además de estudiar los diferentes conceptos
teóricos, construyen un radar de bajo costo que les permite realizar mediciones y
experimentar en diferentes ambientes para posteriormente realizar el análisis de las
6 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.
Correo electrónico: [email protected], [email protected]
40
señales en el aula. Los autores de este curso han mostrado que implementando esta
metodología incrementa el interés de los estudiantes hacia el área de la teoría
electromagnética y sus aplicaciones.
La evolución de la tecnología de radio definido por software ha impulsado el
desarrollo de avanzados sistemas de radio a un bajo costo. Un ejemplo claro de es la
librería de radar para GNU Radio desarrollada por Stefan Wunsch del Instituto de
Tecnología de Karlsruhe en Alemania (Wunsch, 2014).
Marco Teórico
Debido a los costos que se presenta para la implementación de un sistema de radar
varias empresas y universidades han creado varios sistemas de radar de bajo costo,
con el fin de poder observar y realizar experimentos en ambientes controlados de las
técnicas de funcionamiento de este sistema, aquellos sistemas son:
1) Quonset microwave
Esta empresa se encarga de comercializar un kit de demostración de sistemas de
radar ideal para un ambiente académico (www.quonsetmicrowave.com, 2015) con el
fin de aprender acerca de radares, dispone para configurarlo como radar CW, FMCW
y pulso.
2) Novelda Radar
El kit de desarrollo NVA-R661(Novelda, 2015) brinda la posibilidad de
implementar un sencillo sistema usando la de API RadarLib con un conector USB que
permite la integración de hardware y software, con el apoyo Matlab se pretende
realizar pruebas de concepto y demostraciones sobre radar de impulso
3) COM3LAB Course
El kit ofrecido por COM3LAB (Leybold-shop.com, 2015) consta de un sistema
monostático la cual permite realizar pruebas en objetos como lo es la distancia,
medidas del retardo de la señal, seguimiento de objetos y representación de
objetos en movimiento.
4) Naugra TM
El sistema de radar ofrecido por esta empresa permite demostrar los principios
del efecto doppler de las señales reflejadas cuando un objeto se encuentra en
movimiento, permite la observación y medidas usando el software ofrecido, el
sistema de radar opera en la banda X, contiene una antena parabólica la cual
garantiza un haz estrecho y reducir el clutter (Educationaldidactictrainers.com,
2015).
5) LabVolt
El sistema de LabVolt (Labvolt.com, 2015) es uno de los más completos kits de
radares, una herramienta que pretende mostrar los avances técnicos alcanzados por
41
este sistema llevando al estudiante a realizar experimentos en tiempo real para
detectar objetos a distancias cortas y en presencia de clutter, la ventaja de este
sistema es el manejo de transmisiones de baja potencia, siendo segura para
ambientes de práctica.
6) Radar MIT
El instituto tecnológico de Massachusetts junto con el laboratorio Lincoln
decidieron crear un curso (Build a Small Radar System Capable of Sensing Range &
OpenCourseWare, 2015)en el cual su objetivo era poder diseñar un sistema de radar
de bajo costo, las características principales de este sistema es el funcionamiento
como radar FMCW trabajando en la banda S (2-4GHz) y realizando el procesamiento
de la señal con ayuda de Matlab® adquiriendo las señales y grabándolas como
archivos de audio .wav, también presenta 3 modos de operación que para obtener
graficas de rango, velocidad y radar de apertura sintética. En la Figura.1 se puede
apreciar como es el montaje de dicho sistema listo para realizar pruebas
experimentales (Charvat, Fenn & Perry, 2012) con el fin de aplicar los conceptos
aprendidos durante el curso.
Figura.1 Diseño Propuesto de radar de bajo costo por el MIT. La imagen fue recuperada del sitio web
http://ocw.mit.edu/resources/res-ll-003-build-a-small-radar-system-capable-of-sensing-range-
doppler-and-synthetic-aperture-radar-imaging-january-iap-2011/
7) Radares Experimentales con USRP
Gracias al avance de los sistemas con FPGA se han ido creando sistemas de radar
definidos por software, en donde el manejo de filtros, mezcladores, amplificadores,
etc. son programados por este medio, implementando la teoría sobre estos
sistemas de radar de una manera mucho más rápida y más versátil, debido a que
cualquier cambio que requiera hacer para variar el funcionamiento del radar
dependerá de la configuración que se le dé a nivel software.
42
Es por esto que varias investigaciones con USRP (Universal Software Radio
Peripheral) para poder realizar sistemas de radar se han venido haciendo, por
ejemplo se encuentra un trabajo de tesis de la universidad de California (Fernández,
2012) en el 2012 en la implementación de un sistema de radar usando Matlab y la
USRP, donde se pretende demostrar que se pueden enviar y recibir señales de radar
calculando el rango de un objetivo, así como crear un sistema de falsa alarma
dentro de un ambiente de alto ruido, en el Instituto tecnológico de Beijín, Hu
Weidong; Sun Houjun; Lv Xin Y Li Shiyong (Weidong, Houjun, Xin & Li Shiyong,
2006) presentan una arquitectura en SDR para realizar medidas de radar a partir de
los cambios de anchos de banda; Prabaswara A, Munir A y Suksmono A.B., dan a
conocer un artículo sobre de una conferencia internacional donde muestra el uso de
GNU radio usando la técnica de FMCW para la aplicación de monitoreo del clima por
instituto tecnológico de Bandung , Indonesia (Prabaswara, Munir & Suksmono, 2011)
donde el prototipo trabaja con una frecuencia de 2.1GHz y concluyen con la
detección de uno a tres objetivos sin especificar cuáles fueron los objetos de
estudio, sin embargo el sistema presenta algunas limitaciones pero se presenta
como una base para futuros desarrollos.
En una conferencia internacional realizada en Shanghái, China sobre radar de
penetración terrestre (Ralston & Hargrave, 2012) y Ralston, J y Hargrave, C., hablan
sobre el diseño de un prototipo de GPR explotando las bondades que ofrece SDR y así
crear un dispositivo funcional.
Metodología Empleada
El proyecto se realizará bajo un enfoque metodológico planteado alrededor de la
investigación descriptiva y experimental. Inicialmente se realiza una fundamentación
teórica de los conceptos de radares donde se hace una revisión de los modelos
analíticos existentes sobre el efecto doppler. Se analizan las características técnicas
de los componentes requeridos para el diseño del radar análogo en el laboratorio de
comunicaciones del programa de Ingeniería de Telecomunicaciones. Posteriormente
se realiza el diseño e implementación del prototipo hardware y se desarrollan las
pruebas en un escenario dentro y fuera del laboratorio. Se realizan las mediciones
necesarias finalizando con una etapa de análisis de resultados mediante el software
Matlab.
Para su desarrollo se definen las siguientes fases:
a. Revisión de conceptos de sistemas de radar: Radar Onda continua, Radar onda
continua modulada y radar de pulsos.
43
b. Estudio de información técnica de los componentes requeridos para la
implementación: Componentes para la elaboración del radar MIT, uso de radio
definido por software.
c. Compra de materiales requeridos: Compra de los componentes necesarios para
la elaboración del radar MIT.
d. Diseño e implementación del prototipo de pruebas: Realización del radar MIT, y
diseño del radar usando radio definido por software.
e. Programación en Matlab / GNU / Labview: Establecer cuáles de estos
programas ofrecen mejores resultados.
f. Medición en laboratorio: Realizar simulaciones y pruebas básicas para
comprobar del desempeño del sistema.
g. Pruebas de campo: Una vez realizadas las pruebas de laboratorio,
implementarlas en espacio abierto (Instalaciones de la universidad).
h. Análisis de resultados: Comparar los dos sistemas y determinar cuáles son las
ventajas y desventajas de cada uno.
i. Informe final: Presentación de Artículos y manuales para la elaboración del radar
en radio definido por software.
Resultados y Conclusiones
Una vez implementado el sistema de radar análogo y digital, se procede a realizar
diferentes experimentos, uno de ellos consistió en que una persona se desplazaba
por el radar de tal manera que se alejaba y acercaba, los dos radares tienen la
característica de poder guardar el resultado del experimento en un archivo de tipo
.wav y de texto para luego ser procesados utilizando Matlab.
Para la realización de la prueba utilizando el prototipo de Radar MIT se ejecutaron
dos experimentos, uno que me permitiera medir la velocidad cuando una persona
corría y el otro experimento mide posición cuando una persona se encontraba
caminando. En la figura.2 se puede apreciar el resultado del experimento, donde la
máxima velocidad cuando la persona se encontraba corriendo es de
aproximadamente 2.76m/s lo que es equivalente a 9.94Km/h; la máxima posición
cuando la persona se encontraba caminando fue de 15.13m, de esta manera se pudo
comprobar el funcionamiento del radar propuesto por el MIT elaborado en la
Universidad Militar Nueva Granada.
44
Figura.2 Graficas de velocidad y posicion del objeto en movimiento. La imagen fue elaborada por los
autores.
La implementación del radar usando radio definido por software (SDR) se elaboró
usando Linux en su versión MINT 17.1 con GNU-RADIO 3.7.4 y con ayuda de la
librería GR-RADAR creada por Stefan Wunsch (Wunsch, 2014). Se pudo replicar el
sistema análogo en SDR, y al igual que en el radar MIT se realizó un experimento en el
cual una persona caminaba alejándose y acercándose, todo el experimento puede ser
guardado en un archivo de texto. Se creó un algoritmo en Matlab de tal manera que
se pueda graficar los puntos de velocidad y rango vs tiempo.
En la figura.3 se observa el resultado de la prueba cuando la persona se encontraba
caminando. Para comprobar la velocidad entregada por el sistema se apoyó de la
gráfica rango vs tiempo. Primero se ubica instantes donde la velocidad es constante y
se observa la distancia en ese mismo intervalo, se procede a calcular la pendiente y
determinar la diferencia entre la velocidad experimental y calculada (Ver Tabla.1)
donde el porcentaje de error entre las medidas del radar y las calculadas es del 2%.
Figura.3Escenario de prueba y resultados obtenidos. La imagen fue elaborada por los autores.
45
Tabla.1 Registro de Posición y Velocidad en Persona Caminando. La tabla fue elaborada por los
autores.
Intervalo
St1
StZ
St
mR1
mRZ
mR
s
mvcal
s
mvexp
% Error
72.04 75.07 3.03 1.937 5.757 3.82 1.206 1.168 3.150%
B 82.08 86.05 3.97 5.701 10.451 4.75 1.196 1.168 2.341%
C 96.02 99.06 3.04 19.93 21.67 1.74 0.5723 0.5839 2.026%
En el marco de desarrollo del proyecto ING-1541SITPROTCOM - SDR (Signal
Processing Tools in Communications Systems Using Software Defined Radio). Se
evalúo el desempeño del sistema de radar MIT con la técnica FMCW y del radar
definido por software utilizando la técnica Múltiple CW para validar la teoría de forma
experimental detectando el rango y velocidad de un objeto en movimiento.
El desarrollo del diseño propuesto por el MIT ayuda a entender los conceptos de
cómo puede funcionar un sistema de radar utilizando materiales de bajo costo para
su implementación, permitiendo determinar los valores de rango y velocidad usando
la técnica FMCW con ayuda del algoritmo de procesamiento utilizado.
La manera de observar los resultados obtenidos por el radar MIT permiten validar
los datos procesados agregando una condición de incertidumbre ya que el gráfico de
espectrograma entregado no permite tener un valor exacto de posición y/o velocidad.
El uso del toolbox GR-Radar permite la realización de pruebas y validación con
enfoques académicos para el entendimiento de los sistemas de radar con técnicas
básicas, de modo tal que la persona pueda darse una idea general de cómo pueden
llegar a funcionar los radares en aplicaciones militares y comerciales en base al
fenómeno físico del efecto doppler.
Los resultados obtenidos usando radio definido por software permiten validar de
manera práctica los parámetros de diseño utilizando la técnica Multiple CW.
Por último, la implementación del radar usando SDR presenta mejor rendimiento
comparado con el sistema análogo propuesto por el MIT en cuanto a
reconfigurabilidad, capacidad de procesamiento, obtención y validación de resultados.
46
Referencias
www.quonsetmicrowave.com,. (2015). QM-RDKIT. Retrieved 6 May 2015, from
http://www.quonsetmicrowave.com/QM-RDKIT-p/qm-rdkit.htm
Novelda,. (2015). Development kits radar. Retrieved 6 January 2015, from
https://www.novelda.no/content/development-kits
Leybold-shop.com,. (2015). COM3LAB Course: Radar Technology I - Radiolocation - Specializations
- Electrical Engineering - Multimedia - Technology. Retrieved 6 May 2015, from
http://www.leybold-shop.com/technology/multimedia/com3lab/electrical-
engineering/specializations/communications-networks/com3lab-course-radar-
technology-i.html
Educationaldidactictrainers.com,. (2015). Doppler Radar Training System, Doppler Radar Training
System Manufacturers, Suppliers and Exporters from India Educational Trainers & Didactic
Products. Retrieved 6 May 2015, from http://www.educationaldidactictrainers.com/doppler-
radar-training-system.php
Labvolt.com,. (2015). LabVolt Series by Festo Didactic - Radar Training System (8096-00). Retrieved
6 May 2015, from https://www.labvolt.com/solutions/9_telecommunications/98-8096-
00_radar_training_systems.
Build a Small Radar System Capable of Sensing Range, a., & OpenCourseWare, M. (2015). Build a
Small Radar System Capable of Sensing Range, Doppler, and Synthetic Aperture Radar
Imaging. MIT OpenCourseWare. Retrieved 6 May 2015, from
http://ocw.mit.edu/resources/res-ll-003-build-a-small-radar-system-capable-of-
sensing-range-doppler-and-synthetic-aperture-radar-imaging-january-iap-2011.
Charvat, G., Fenn, A., & Perry, B. (2012). The MIT IAP radar course: Build a small radar system
capable of sensing range, Doppler, and synthetic aperture (SAR) imaging. 2012 IEEE Radar
Conference. doi:10.1109/radar.2012.6212126.
Weidong, H., Houjun, S., Xin, L., & Li Shiyong,. (2006). Reasearch on SDR Architecture for Radar
Target Signatures Measurement. 2006 CIE International Conference On Radar.
doi:10.1109/icr.2006.343467
Prabaswara, A., Munir, A., & Suksmono, A. (2011). GNU Radio based software-defined FMCW radar
for weather surveillance application. 2011 6Th International Conference On
Telecommunication Systems, Services, And Applications (TSSA).
doi:10.1109/tssa.2011.6095440
Ralston, J., & Hargrave, C. (2012). Software defined radar: An open source platform for prototype
GPR development. 2012 14Th International Conference On Ground Penetrating Radar (GPR).
doi:10.1109/icgpr.2012.6254855.
Wunsch, S. (2014). GNU Radio Radar Toolbox. GNU Radio Radar Toolbox. Retrieved 6 May 2015,
from https://grradar.wordpress.com/
Fernandes, V. (2012). Implementation of a RADAR System using MATLAB and the USRP (Master).
California State University – Northridge.
47
Prototipo de una red GSM con el uso
de OpenBTS y USRPs en el Campus
Cajicá de la Universidad Militar Nueva
Granada
Harold Gustavo Patiño Valero 7[autor]
Luís Carlos Ramírez Ramírez 7[autor]
Resumen
La propuesta de investigación propone la implementación de un prototipo de red móvil de
bajo costo, con la finalidad de brindar a los usuarios del Campus Cajicá de la Universidad
Nueva Granada, un servicio experimental de telefonía móvil. El prototipo que se construirá,
utilizará la tecnología GSM, con OpenBTS, USRP.
Todo el proceso de diseño e implementación de la red se documentara debidamente en un
manual que será entregado a personal técnico de la Universidad para su debida manipulación y
mantenimiento.
Introducción
Actualmente las tecnologías sobre redes móviles han evolucionado rápidamente, y
en particular una de las tecnologías que ha tenido mayor acogida en los últimos años
es GSM, ya que esta ha sido una de las de mayor reconocimiento a nivel mundial ya
que permite la interoperabilidad, y se encuentra desplegada a nivel mundial.
Es por tal razón que nace la necesidad de identificar y analizar los parámetros
técnicos que se necesitan para implementar una red GSM.
El costo económico asociado a la elaboración de dicha red es bastante elevado, por
tal motivo es necesario encontrar nuevas herramientas que reduzcan el costo de
implementación.
Las herramientas que se pueden usar para producir una red de bajo costo, son la
tecnología que hace parte del proyecto de OpenBTS que sería a nivel de software, y a
nivel de hardware el empleo de USRPs. Con esta herramienta se podría acceder a una
herramienta educativa potente, para que los estudiantes de la Universidad Militar
7 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.
Correo electrónico: [email protected]
48
Nueva Granada entiendan los conceptos asociados a la operación de una red celular;
se agregarían nuevos temas de profundización en el área de las comunicaciones
móviles que ampliarían las temáticas de investigación, y además serviría para
potencializar algunas competencias y habilidades en los futuros profesionales, las
cuales les permitirán ser más críticos en sus labores de ingeniería a la hora de diseñar
e implementar una red de comunicaciones móviles.
Marco Teórico
Para el desarrollo del proyecto es necesario tener en cuenta ciertos conceptos que
inciden en el desarrollo del prototipo:
El proyecto OpenBTS según [1] es un proyecto que consiste en un punto de acceso
de GSM basado en software con código abierto que permite a los teléfonos móviles
compatibles con el sistema, hacer llamadas sin la necesidad de estar conectados a
una red comercial existente. Esta arquitectura se encuentra disponible para que
cualquier usuario la pueda innovar y agregar los servicios que le parezca mejor para
su sistema.
Universal Software Radio Peripheral (USRP), es un transmisor receptor flexible que
permite que un computador funcione como un sistema de generación de prototipos
para la comunicación inalámbrica. La configuración puede ser mediante LabVIEW o
GNU-Radio [2].
GNU-RADIO es un software gratuito, con herramientas que funcionan en tiempo
real para el procesamiento de señales, mediante bloques de procesamiento, junto con
la implementación de hardware externo de RF como una USRP. Es utilizado por
aficionados, entornos académicos y comerciales por su bajo costo y flexibilidad de
uso [3].
ASTERISK es un sistema operativo basado en Linux, utilizado para aplicaciones de
comunicaciones, capaz de convertir un computador normal en un servidor de
Comunicaciones. Utilizado normalmente para implementar sistemas IP PBX, puertas
de enlace VoIP, servicios de conferencia y otras configuraciones que el usuario pueda
crear a medida que lo desee, ya que es un código libre y abierto a los usuarios [4].
Después de tener claro algunos conceptos para la realización de este proyecto, es
necesario entender la serie de avances que se ha tenido respecto a proyectos
relacionados con la tecnología OpenBTS.
[5]. En el paper “OpenBTS Implementation With Universal Software Radio
Peripheral”, publicado en el año 2004 por Abul Azad, se muestran los beneficios
económicos de usar OpenBTS para brindar cobertura a una isla conocida como la
república de Nauru. Para lograr este objetivo se necesitó de 15 USRPs. En el paper se
describen los costos estimados en el sistema; modelo de negocios y cálculos de
49
pérdida con el modelo Hata. Además de una descripción detallada de los elementos
que componen OpenBTS.
[6]. En el año 2013, Prasannan N, Xavier G, Manikkoth A, Gandhiraj R, Peter R,
Soman K.P. publican “OpenBTS Based Microtelecom Model: A SocioEconomic Boon To
Rural Communities”, el cual describe los beneficios de crear una red celular de bajo
costo, como una oportunidad a los gobiernos de reducir la brecha de comunicación
en las regiones rurales, donde los proveedores de servicios no obtienen beneficios
económicos., además, se muestran las configuraciones del OpenBTS en un ambiente
de laboratorio, las cuales tienen resultados satisfactorios con respecto al
funcionamiento de la red. Por último, se menciona que el desempeño de la red
depende de la antena y los esquemas de codificación que se usen para la
configuración de la red celular.
[7]. En el año 2012, Manu Bansal en su publicación “Open Radio: A programmable
Wireless dataplane” [7] describe la flexibilidad que hay en la configuración al
momento de construir una BTS con la ayuda de Radio Definido por Software (SDR).
Esta flexibilidad es posible gracias a que se trabaja con programación por bloques, y
una conexión a un Universal Software Radio Peripheral (USRP). Con la implementación
anterior se concluye que al utilizar SDR y USRP habría un ahorro en los costos
necesarios para montar una BTS.
En el 2012, Islam E. Hashem, Ahmed ElShaarany, Ahmed Y. Abdelbarr. Eslam S.
Hassan, Magdi Fikri en su artículo “Implementing an Enhanced Base Station using the
Software Defined Radio (CUOPENBTS)” [6], hablan de la importancia de implementar
mejoras en el diseño OpenBTS, buscando aumentar la sensibilidad y reduciendo al
mínimo el costo del sistema. En este artículo implementan OpenBTS, con USRP,
GNURadio y Asterisk. Después de hacer la implementación y las respectivas pruebas
demostraron que este podía ser uno de los sistemas de telecomunicaciones más
baratos hoy en día, ya que todo el sistema no les costó más de 1.500 dólares;
también que utilizando la placa hija WBX en la USRP comunicaría un gran número de
personas [8].
[9]. En el paper “OpenBTS: A Step Forward in the Cognitive Direction”, el cual fue
publicado en el 2012 por Pasquale Pace y Valeria Loscrí, se describen las
características y beneficios de la estructura de OpenBTS, los elementos que son
necesarios para implementar una estación base de bajo costo, Este artículo se centra
en el acceso espectral dinámico (DSA), para su posterior uso en OpenBTS, dando la
oportunidad de compartir el espectro con los proveedores de servicio sin interferir en
el uso comercial de las bandas de estos operadores.
50
Metodología Empleada
Inicialmente se realizó una fundamentación teórica de los conceptos de asociados a
las tecnologías GSM y OPENBTS, donde se hace una revisión del estado de arte a nivel
nacional e internacional en las temáticas asociadas a redes móviles y tecnologías
emergentes. Se procedió a analizar las características técnicas de los componentes
requeridos para el diseño de una red GSM de bajo costo, incluyendo pruebas en un
entorno cerrado y posteriormente en un entorno abierto.
Para el desarrollo se definen los siguientes pasos:
a. Revisión de conceptos sobre sistemas móviles junto con OpenBTS: OpenBTS,
USRP, Asterisk, GNU-Radio.
b. Estudio de información técnica de los componentes requeridos para la
implementación: Componentes para la implementación del prototipo un sistema
móvil, y uso de Radio Definido por Software (SDR).
c. Diseño e implementación del prototipo de pruebas: Realización del enlace
móvil mediante SDR en el laboratorio, rediseño y adaptación del prototipo para
ejecución en el campus Cajicá.
d. Pruebas de campo: Una vez realizada las pruebas y mediciones en el
laboratorio, se implementará el prototipo en el campus Cajicá. Luego se ejecutará
un experimento para medir las variables pertinentes al sistema de comunicaciones
implementado.
e. Análisis de resultados: Se compararán los datos obtenidos en las pruebas de
campo, con los obtenidos al aplicar la teoría, y a partir de los resultados se
rediseñará el prototipo en caso de necesitar cambios.
f. Informe final: Se escribirán algunos artículos científicos y una serie de
manuales, donde se ilustra el procedimiento para la elaboración e implementación
del prototipo de una red GSM con el uso de OpenBTS y USRPs, en el Campus Cajicá
de la Universidad Militar Nueva Granada.
Resultados y Conclusiones
A la fecha se tienen los siguientes resultados parciales:
- Características de los componentes que hacen parte del proyecto OpenBTS,
entre los cuales se destaca las pruebas que se han realizado con la USRPs,
para conocer su funcionamiento y los elementos que forman este hardware.
- Instalación y configuración de GNU-Radio.
- Pruebas con el analizador de espectro en un entorno abierto, para verificar
las bandas GSM.
51
Referencias
[1] Definicion “OpenBTS” disponible en http://openbts.org/
[2] Definicion “USRP” disponible en http://www.ni.com/sdr/usrp/
[3] Definicion “GNU.Radio” disponible en http://gnuradio.squarespace.com/
[4] Definicion “Asterisk” disponible en http://www.asterisk.org/
[5] Azad, A. (2011), 'Open BTS Implementation with Universal Software Radio Peripheral', Department
of Electrical and Computer Engineering, Virginia Polytechnic and State University: Virginia, VA, USA.
[6] Prasannan, N.; Xavier, G.; Manikkoth, A.; Gandhiraj, R.; Peter, R. & Soman, K. (2013), OpenBTS
based microtelecom model: A socio-economic boon to rural communities, in 'Automation,
Computing, Communication, Control and Compressed Sensing (iMac4s), 2013 International Multi-
Conference on', pp. 856--861.
[7] Bansal, M.; Mehlman, J.; Katti, S. & Levis, P. (2012), Openradio: a programmable wireless
dataplane, in 'Proceedings of the first workshop on Hot topics in software defined networks', pp.
109--114.
[8] Hashem, I. E.; ElShaarany, A.; Abdelbarr, A. Y.; Hassan, E. S. & Fikri, M. (2012), Implementing an
Enhanced base station using the software defined radio (CUOPENBTS), in 'Advances in Computational
Tools for Engineering Applications (ACTEA), 2012 2nd International Conference on', pp. 39--42.
[9] Pace, P. & Loscri, V. (2012), OpenBTS: a step forward in the cognitive direction, in 'Computer
Communications and Networks (ICCCN), 2012 21st International Conference on', pp. 1- 6.
52
Diseño y simulación de filtros
Microstrip usando el software ADS
Juan Carlos Martínez Quintero 8[autor]
Paula Alejandra Garzón Sánchez 8[autor]
Resumen
En este proyecto se plantea establecer una metodología adecuada para la implementación
exitosa de un filtro microstrip sobre el software ADS, recurriendo a todos los factores
configurables brindados por el productor de este software que agilizar los procesos de diseño
y simulación del filtro.
Introducción
Uno de los métodos más prácticos encontrado es el diseño por tablas, en el cual se
establecen los parámetros de diseño y luego se procede a reemplazar los datos
normalizados en una serie de tablas que entregan resultados como la longitud
eléctrica de las líneas. Estos datos son alimentados en el software ADS, al igual que
las características de impedancia y tipo de sustrato a utilizar, para determinar la
longitud efectiva de las líneas. Con esta información se realiza la simulación final y se
determina la respuesta del filtro y la verificación de características usando el
simulador de parámetros S.
El objetivo de este proyecto consiste en diseñar e implementar un filtro microstrip.
De igual manera se muestran los avances realizados mediante el diseño del filtro a
través del software ADS el cual nos permite integrar diversos factores como
impedancias, materiales del filtro, acoples necesarios según las características que se
desean para un funcionamiento en específico, entre otros, de esta manera se obtiene
un diseño a implementar de manera física para su respectiva aplicación.
Marco Teórico
Los filtros son utilizados en muchas áreas de ingeniería de microondas/RF
(comunicaciones, radar, navegación, sensores, etc.), en este caso los filtros se usan
para seleccionar, rechazar o aislar las señales de microondas de RF dentro de los
8 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.
Correo electrónico: [email protected]
53
límites espectrales asignados, así como para combinar señales a diferentes
frecuencias para estos sistemas de RF. Para el diseño de los filtros se implementa la
estructura microstrip o micro-cintas que es una clase de línea de transmisión eléctrica
que generalmente se fabrica utilizando placas de circuito impreso, se basa en una
franja de conducción separada de la franja de masa separada por capas de sustrato
dieléctrico. Este tipo de filtros microstrip han sido desarrollados para diversas
aplicaciones como la comunicación inalámbrica y sistemas de radares y sensores
inalámbricos, además se pueden implementar en herramientas asistidas por un
software de diseño con materiales avanzados, por tal razón para el diseño,
implementación y simulación de este tipo de filtros se requiere la utilización de un
software especializado para facilitar la labor y tener una respuesta aproximada a la
teoría.
Para el diseño de los filtros es necesario tener en cuenta las consideraciones
propuestas por las diversas publicaciones que se pueden encontrar acerca del tema.
Algunas de estas consideraciones se tienen en cuenta para la topología del filtro, el
sustrato, el orden del filtro y sus pérdidas, entre otras. Para el tipo de topología se
tiene en cuenta las características del filtro (dependen del filtro a escoger), el ancho
de banda, el tamaño y el manejo de potencia, para escoger el sustrato depende del
tamaño, del orden, de los efectos de la curva de superficie y de la implementación del
filtro, así como las pérdidas del conductor, del dieléctrico y de la radiación en la
resonancia de la micro cinta, sin olvidar el efecto de la temperatura en los
componentes.
El software ADS (Advanced Design System) es un Sistema de automatización de
diseño electrónico de RF, microondas y aplicaciones digitales de alta velocidad. ADS
ofrece diseño completo, basado en estándares y verificación con librerías inalámbricas
las cuales se actualizan acorde a los estándares internacionales más recientes, ADS es
pionero en redes inalámbricas ya que gracias al desarrollo constante de sus librerías
en la actualidad se pueden diseñar elementos para redes WiMax, servicios LTE y
radares. Se utiliza este software por ser un sistema rápido, preciso y fácil de usar, que
cuenta con las herramientas necesarias para el diseño y simulación de filtros.
Metodología Empleada
El enfoque metodológico del proyecto se presenta alrededor de la investigación
descriptiva y experimental.
Inicialmente se plantea el levantamiento de información para determinar
metodologías de diseño e implementación de filtros microstrip para características
determinadas. Se establecen las condiciones de diseño con base a la frecuencia y
ancho de banda la que operará el filtro. Para la simulación del filtro y verificación de
54
características de diseño se cuenta con el software ADS, en este sentido es necesario
familiarizarse con la operación del mismo, el establecimiento de parámetros de
diseño y posterior simulación. Una vez verificado un comportamiento deseado sobre
la simulación se realimenta el proceso, con el fin de perfeccionar el diseño.
En la figura 1 se puede ver el diseño de la antena a realizar a través del software
ADS como el prototipo en 3D de la antena a implementar.
Figura 1. Diseño de Antena a implementar con el programa ADS. La imagen fue elaborada por los
autores.
A continuación en la figura 2 se presentan las configuraciones realizadas en el
software ADS para el filtro a diseñar con sus respectivas características.
Figura 2. Configuración implementada en el programa ADS para el diseño de filtros. La imagen fue
elaborada por los autores.
En la figura 3 se ilustra el diagrama de Bode de magnitud del filtro, donde se
muestra la frecuencia de corte respectiva.
55
Figura 3. Diagrama de Bode de Magnitud de la función de transferencia del filtro. La imagen fue
elaborada por los autores.
Resultados y Conclusiones
Con base en la literatura revisada, se han encontrado diversas formas de diseñar
este tipo de filtros, encontrando métodos fundamentados en la teoría de circuitos y
otros en los cuales el proceso se simplifica al empleo de tablas y métodos numéricos.
Uno de los métodos más prácticos encontrado es el diseño por tablas, en el cual se
establecen los parámetros de diseño y luego se procede a reemplazar los datos
normalizados en una serie de tablas que entregan resultados como la longitud
eléctrica de las líneas. Estos datos son alimentados en el software ADS, al igual que
las características de impedancia y tipo de sustrato a utilizar, para determinar la
longitud efectiva de las líneas. Con esta información se realiza la simulación final y se
determina la respuesta del filtro y la verificación de características usando el
simulador de parámetros S.
Durante la simulación se acoplaron los filtros a líneas de 50Ω para realizar la futura
implementación y verificación de parámetros mediante el analizador vectorial de
redes.
La respuesta de los filtros ha sido muy cercana a las características deseadas, sin
embargo, el acople con las líneas de 50Ω hace que se desvíen levemente las
frecuencias y hace necesario un reajuste en los parámetros de diseño.
El software ADS también permite el diseño de filtros mediante una herramienta
gráfica a la cual se le proporcionan las características y esta procede a realizar
diferentes tipos de filtros. Esta herramienta también cuenta con filtros prediseñados
para su uso en diferentes tecnologías a diferentes frecuencias.
56
Referencias
Heriot-Watt University, Jia-Sheng Hong. Microstrip Filter Design (s.f). Disponible en:
http://home.eps.hw.ac.uk/~ceejh3/presentations/Microstrip%20Filter%20Design-JH2005.pdf
Hong, J. S. G., & Lancaster, M. J. (2004). Microstrip filters for RF/microwave applications (Vol. 167).
Jhon Wiley & Sons.
57
Diseño y simulación de antenas
microstrip usando el software ADS
Hernán Felipe Rivas Luna 9[autor]
Edgar Andrés Becerra Bahamón 9[autor]
Juan Carlos Martínez Quintero 9[autor]
Resumen
En este proyecto se plantea establecer el procedimiento detallado para la implementación de
una antena microstrip sobre el software ADS recurriendo a todos los factores configurables
brindados mediante este software que facilita el diseño y simulación de la antena con el fin de
aplicarlas a distintos dispositivos a un futuro próximo.
Introducción
El fin de este proyecto consiste en diseñar e implementar una antena microstrip y
determinar sus características de funcionamiento para ser adaptada a diferentes
dispositivos con aplicaciones en distintos escenarios de la vida real. De igual manera
se plantea la revisión de metodologías de diseño de antenas microstrip a partir de
parámetros específicos de radiación y acople de impedancias.
De igual manera se muestran los avances realizados mediante el diseño de la
antena a través del software ADS el cual nos permite integrar diversos factores como
impedancias, materiales de cada parte de la antena, acoples necesarios según las
características que se desean para la antena para un funcionamiento en específico,
entre otros, de esta manera se obtiene un diseño a implementar de manera física para
su respectiva aplicación en dispositivos reales.
Marco teórico y Estado del Arte
Las antenas de parche o (microstrip) micro tira se diseñan a partir de líneas de
transmisión o resonadores sobre substrato dieléctrico. Este tipo de antenas se pueden
analizar desde muchos puntos de vista, desde los diseños básicos de microstrip con
líneas de transmisión hasta los más complejos, usando métodos numéricos espectral,
en este caso se muestra la aplicación del diseño de antenas sobre planos usando el
software ADS mediante el cual se implementan operaciones teóricas configuradas en
9 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.
Correo electrónico: [email protected], [email protected]
58
el software y programación por bloques para obtener un tipo determinado de antena
con el fin de generar cierta propagación como parte fundamental de una
comunicación digital, esto se define en conjunto como se describe el proceso de la
antena que vamos a implementar a continuación:
“La excitación mediante línea microstrip en una de las aristas del parche tiene como
ventaja su simplicidad, dado que el circuito de alimentación del parche y el propio
parche se construyen en el mismo proceso. Sus inconvenientes son consecuencia
justamente de residir el circuito de alimentación de la antena en el mismo plano y
substrato que la antena.” (Martín, J., Martín, J., & Posada, V., 2011).
Metodología Empleada
El enfoque metodológico del proyecto se presenta alrededor de la investigación
descriptiva y experimental.
Inicialmente se plantea el levantamiento de información para determinar
metodologías de diseño e implementación de antenas microstrip para características
determinadas. Se establecen las condiciones de diseño con base en la impedancia de
salida del dispositivo a conectar y la frecuencia a la que operará la antena. Para la
implementación y simulación de la antena el programa cuenta con el software ADS, en
este sentido es necesario que el estudiante se familiarice con la operación del mismo
y el establecimiento de parámetros de diseño y posterior simulación. Una vez
verificado un comportamiento deseado sobre la simulación es necesaria la
elaboración física del impreso, este producto final lo entrega una empresa que la
fábrica con el diseño realizado en ADS.
En resumen se propuso las siguientes fases para el desarrollo del proyecto:
a. Revisión bibliográfica de los conceptos, herramientas y metodologías
involucradas en el diseño de antenas microstrip.
b. Estudio de la herramienta ADS para el diseño y simulación de la antena
microstrip.
c. Diseño y simulación de la antena.
e. Pruebas de respuesta en frecuencia usando la USRP N-210.
f. Análisis de resultados.
En la figura 1 se ilustran los pasos metodológicos sugeridos para la investigación.
59
Figura 1. Metodología Planteada. La imagen fue elaborada por los autores.
Resultados y Conclusiones
En la figura 2 se puede verificar el diseño de la antena a realizar a través del
software ADS como el prototipo en 3D de la antena a implementar.
Figura 2. Diseño de la antena propuesta a través del programa ADS. La imagen fue elaborada por
los autores.
En la tabla 1 se presentan las configuraciones realizadas en el software ADS para la
antena a diseñar con sus respectivas características.
Tabla 1. Configuración de los parámetros del programa ADS para el diseño de la antena propuesta.
La tabla fue elaborada por los autores.
Características Valor Unidades
Constante dieléctrica 4.3 -
Tangente de pérdidas 0.02 -
Grosor dieléctrico (h) 1.6 mm
Frecuencia de operación 2.919 GHz
Longitud (L) 23.69 mm
Ancho (W) 30.71 mm
Ancho de la muesca 4.28 mm
60
Profundidad de la muesca 10 mm
Longitud de la línea de alimentación 25.357 mm
Ancho de la línea de alimentación 2.8 mm
Impedancia de entrada (Z0) 50 ohm
Directividad 5.4 dBi
Tabla 1. Configuración de los parámetros del programa ADS para el diseño de la antena propuesta.
La tabla fue elaborada por los autores.
En la figura 3 se ilustran las gráficas de pérdidas de inserción en magnitud y fase.
Figura 3. Gráficas de las perdidades de inserción y de la fase en función de la frecuencia para la
antena diseñada. Las imágenes fueron elaboradas por los autores.
En la figura 4 se presenta el patrón de radiación simulada en ADS de la antena
microstrip.
Figura 4. Patrón de radiación simulada en ADS de la antena microstrip. La imagen fue elaborada
por los autores.
61
Por último en la figura 5 se presentan las coordenadas y dimensiones de la antena a
implementar, realizadas en el software ADS.
Figura 5. Antena diseñada con el programa ADS. La imagen fue elaborada por los autores.
El software ADS permite el diseño de Antenas mediante sus herramientas a la cual
se le proporcionan las características y esta procede a realizar diferentes tipos de
antenas.
Básicamente se procedió a realizar diferentes tipos de lectura y se han encontrado
diversas formas de diseñar este tipo de Antenas, encontrando los cuales permiten que
el proceso se simplifique.
Este tipo de programas se implementan para diseñar antenas que de verdad
funcionen e irradien las señales que se desean enviar a las frecuencias a las cuales se
les va acoplar para trasmitir y recibir los datos.
El software empleado permite configurar los parámetros de antenas tales como la
ganancia, la directividad y la polarización entre otros, para fabricar y diseñar
diferentes tipos de antenas configuradas de diferentes tipos de estas.
Referencias
Escuela politécnica superior, B. Felix Triviño. (2012). Diseño de Antenas de Parche rectangulares
Microstrip. IAC, 0(1). Retrieved from
http://arantxa.ii.uam.es/~acaf/Documentacion/TemaIII_antenas_impresas.pdf
Martín, J., Martín, J., & Posada, V. (2011). Procedimiento de Diseño y Realización de Antenas de
Parche en Tecnología Microstrip. IAC, 0(1). Retrieved from
http://polired.upm.es/index.php/iac/article/view/1762/1774
62
Caracterización y documentación
georreferenciada de la interferencia,
seguridad y el solapamiento de
canales en sitios de libre acceso a
Internet para redes WiFi, en puntos
críticos de la comuna 10 de Medellín
proponiendo una Metodología de
medición
Roberto Guevara Calume 10[autor]
Resumen
El acceso a Internet a través de redes inalámbricas WIFI se ha masificado ostensiblemente,
debido a su bajo costo económico y la notable ausencia de cables, pero al mismo tiempo ha
aumentado su vulnerabilidad ante accesos no autorizados. En la ciudad de Medellín y
principalmente en el centro de la ciudad se encuentran muchos sitios que ofrecen Internet a
través de redes WIFI, además muchas pymes emplean WIFI en sus redes internas corporativas.
En este informe se muestran los resultados del análisis de solapamiento de canales y
problemas de interferencia que afectan la velocidad de transferencia en los puntos de acceso
libre a Internet que emplean tecnología WiFi suministrados por entidades públicas y privadas
en el área de estudio (comuna 10 centro de Medellín), a través de la georreferenciación de
planos digitales. Por último se realiza una encuesta para identificar el uso que se da a las
redes WiFi.
Se analizarán y mostraran los resultados sobre el grado de seguridad de la redes WiFi en las
empresas localizadas cerca de estos puntos de acceso libre a Internet para alertar y mejorar la
seguridad ante intrusos que intenten realizar accesos no autorizados.
10 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación SEMCEI, Corporación Universitaria Rémington,
Medellín. Correo electrónico: [email protected]
63
Introducción
En este documento se determinaran la localización y solapamiento de canales que
afectan la velocidad de transferencia en puntos WIFI de libre acceso, en algunos
puntos críticos de la Comuna 10 a través de un caso de estudio, usando la
georreferenciación de planos digitales. La zona definida para el caso de estudio se
caracteriza por la alta concentración de tecnología WIFI, y se encuentra ubicada en la
comuna 10 (Centro de la ciudad de Medellín, Colombia).
Existen una gran cantidad de redes WIFI, ya que son una tecnología económica y
fácil de implementar, esto trae consigo problemas tales como:
- La gran cantidad de redes WIFI en la misma zona hace que redes
geográficamente cercanas se interfieran entre sí, aumentando la demora en
la descarga de archivos y la navegación.
- El bajo costo hace posible que existan organizaciones que proporcionen
acceso a Internet libre, pero se desconoce su ubicación exacta.
- La facilidad de implementación, permite que personal no capacitado
implemente redes WIFI, sin una adecuada seguridad, Lo que aumenta el riego
de accesos no autorizado.
El estudio de estos problemas en una zona de la comuna 10 permitirá:
- Evitar en lo posible que redes geográficamente cercanas se interfieran
haciendo un uso óptimo de los canales y del ancho de banda, aumentando la
velocidad de descarga de archivos y la navegación.
- Establecer donde se encuentran los puntos de libre acceso a Internet en una
zona de la comuna 10.
- Aumentar la seguridad de las redes WIFI privadas en una zona de la comuna
10, a través del uso de protocolos seguros, evitando usar protocolos que
faciliten el acceso no autorizado.
Marco teórico y Estado del Arte
Es muy común el uso de varias redes WIFI en diversos escenarios, como residencias,
campus universitarios empresas y sitios públicos, pudiendo estas producir
interferencias entre sí cuando estas redes WIFI están localizadas en la misma zona
geográfica. Es común encontrar problemas de bajas velocidades en la transferencia de
archivos, incluso estando pocos computadores conectados a la red WIFI. Este estudio
puede ser útil para comprender cómo es afectada la tasa de transferencia de datos
en redes WIFI, pero en un aspecto más amplio puede aplicarse a procesos
industriales que sean monitoreados o controlados usando tecnología por otras
tecnologías como Zigbee, la cual podría ser interferida por la red de datos WIFI
corporativa.
64
Los dispositivos inalámbricos Zigbee, Bluetooth y WIFI trabajan en la frecuencia ISM
(Industrial, Scientific and Medical) de 2.4Ghz, bandas reservadas internacionalmente
para uso no comercial y aplicaciones científicas y médicas; la tabla 1 hace una
comparación de las principales tecnologías que usan esta banda no licenciada de
2.4GHz.
Metodología Empleada
En el estudio se incluyó los centros comerciales, bulevares sitios concurridos y
plazas como botero plaza, y hoteles, cercanos a la sede de la Universidad
Rémington, con la finalidad de que los resultados obtenidos del estudio impacten a
nuestros vecinos cercanos, por lo anterior se establezco la zona comprendida entre
Carabobo carrera 52, hasta la avenida oriental, y desde la calle 53 hasta la Colombia
calle 50.
El estudio se centra en la comuna 10 y se aplica al aérea comprendida entre Cl 50
(Colombia) – Cr 46 (Av. oriental) - Cl 53 (Maracaibo) – Cr 52 (Carabobo), la figura 1
muestra cómo se divide el área de estudio en 24 Zonas, Se realizó un primer recorrido
exploratorio de toma de muestras seleccionando diferentes zonas reconocidas como
de mayor influencia comercial como: Centros comerciales, Hoteles, hospitales, etc.
con el propósito de determinar inicialmente cuantas zonas o subdivisiones son
necesarias para la prueba general.
Figura 1. División en zonas del área de estudio. La imagen fue elaborada por el autor.
Además es necesario ejecutar recorridos exploratorios con la finalidad de capturar
muestras, usando dispositivos más pequeños, como por ejemplo teléfonos con
programas que estimen la cantidad de redes WIFI activas y la densidad de estas; de
65
igual forma elegir la técnica más adecuada para hacer el escaneo. Dado que las redes
cambian por la potencia relativa, se toman intervalos de tiempo iguales o superiores a
los 10 minutos, con el objetivo de “estabilizar” la medición de las muestras.
Un mapa conceptual completo de los tipos de experimentos involucrados se detalla
en el mapa conceptual ilustrado en la figura 2.
Figura 2. Mapa conceptual de las pruebas experimentales. La imagen fue elaborada por el autor.
Resultados y Conclusiones
Las personas encuestadas usuarios de redes WiFi el 10% creen tener un nivel de
muy bueno de WiFi mientras que regular y malo suman un 48%, sobre la percepción
de seguridad que ofrecen las redes WiFi solo un 3% de los usuarios cree que la
seguridad es WiFi es muy buena, lo que indica que existe una gran cantidad de
personas que desconfía en alguna medida de las redes WiFi. Sin embargo un 78% de
los encuestados usa WiFi para transacciones comerciales, es decir la redes WiFi se
emplean aún se tenga algún grado de desconfianza.
Aunque el empleo de redes WiFi trae consigo bajas velocidades como se demostró
en este mismo artículo un 25% de los encuestados es decir 1 de cada 4 no lo
considera así o no ve la disminución como algo palpable o como un obstáculo.
Las conexiones WiFi son empleadas por la mayoría de personas sobre las redes
cableadas un 53% emplea redes WiFi contra un 45%, que emplea redes cableadas,
además vemos que aunque son muy diversos los dispositivos empleados para
conectarse a redes WiFi se destacan el portátil y el teléfono.
66
Sobre el ISP que tienen los usuarios de la comuna 10 se destaca UNE con un 71%, y
CLARO con un 22% y el ancho de banda más empleado con un 51% de los
encuestados esta entre 2 a 4 Mbps, con una frecuencia de más de 24horas por
semana 41%. Por último solo el 3% de los usuarios de redes WiFi al entrar a redes
libres se siente seguro, el 65% de los encuestados siente algún grado de inseguridad
al entrar en redes WiFi, y el 35% se siente seguro,
A pesar que la comuna 10 tiene una gran cantidad de puntos WiFi de libre acceso
existe un 43% de los encuestados que desconoce de la ubicación de este tipo de
conexiones. El 51% más de la mitad de los encuestados manifiesta haberse conectado
alguna vez a una red sin autorización y el 19% se conecta a una red WiFi sin
autorización con alguna frecuencia.
Al realizar el análisis sobre los resultados de las mediciones con respecto a las
redes WiFi, se encontró que de un total de 766 redes el 86.55% (663 redes) poseen
seguridad y el 13.45% (103 redes) no. Como se muestra en la figura 3.
Figura 3. Seguridad aplicada a las redes WIFI. La imagen fue elaborada por los autores.
En un análisis sobre las 663 redes que tienen algún tipo de seguridad, el protocolo
dominante es el WPA2 con un 41.93% de uso, seguido de WPA con un uso del 40.12%
y por último el WEP con una aparición de 17.95%, tal como se ilustra en la gráfica de
la figura 4.
Figura 4. Distribución de los protocolos empleados en las redes WIFI con algún tipo de seguridad.
La imagen fue elaborada por los autores.
67
Referencias
Bertuzzi, R. (2007). Diseño e implementación de un servicio de localización y visualización de mapas
utilizando J2ME para dispositivos móviles y herramientas de libre distribución. R.C. Bertuzzi
Síntesis Tecnológica. V.3 Nº 2 (2007), V.3(Nro. 2), 39-57
Borisov, N., Goldberg, I., & Wagner, D. (2001). Intercepting Mobile Communications:.
isaac.cs.berkeley.edu.
Buenos Aires Ciudad. (2013). Buenos Aires Ciudad. Recuperado el 03 de 10 de 2014, de
http://www.buenosaires.gob.ar/noticias/le-red-de-wifi-gratis-de-la-ciudad-llego-
metrobus-9-de-julio
ByongGi, L., & Sunghyun, C. (2008). Broadband wireless access and local networks:mobile WiMax
and Wifi artech house inc.
Cisco Press,. (2006). Fundamentos de redes inalámbricas, primera edición. Mexico: Prentice Hall.
elciudadano. (2014). elciudadano.gob.ec. Recuperado el 05 de 10 de 2014, de elciudadano.gob.ec:
http://www.elciudadano.gob.ec/gobierno-nacional-implementa-red-wi-fi-gratuito-
alrededor-de-la-unidad-educativa-aguirre-abad/
Garaizar, P. (s.f.). Seguridad En Redes. Recuperado el 26 de 08 de 2013, de Seguridad En Redes:
http://www.e-ghost.deusto.es/docs/SeguridadWiFiInestable2005.pdf.
Gómez López, J. (2008). Guía de campo de WIFI, primera edición. españa: Editorial Ra-Ma.
grupo informática-hoy. (s.f.). Informática, tecnología e Internet . Recuperado el 25 de 06 de 2013,
de Informática, tecnología e Internet : http://www.informatica-hoy.com.ar/redes-
inalambricas-wifi/Seguridad-en-redes-WIFI.php
http://www.wefi.com/maps/. (s.f.). Wefi. Recuperado el 05 de Octubre de 2013, de
http://www.wefi.com/maps/.
Jin-a, Park, S.-K., Park, P.-D., & Cho, K.-R. (2002). Analysis of spectrum channel assingnment for
IEEE 802.11b Wirelees LAN. IEEE Explorer.
Lehembre, G. (2006). Seguridad Wi-Fi WEP,WPA y WPA2. Hackin9, 26.
López, M., Alcocer, i., Barraza, A., Mendoza, A., & Hinostroza, V. (2009). Algoritmos de protocolos
de seguridad en redes de computadoras inalámbricas y el estudio paramétrico de su
implementación. Revista Espectro Tecnológico, 4.
Manfredi. (2008). http://inta.gob.ar/documentos/realizacion-de-mapas-georeferenciados-de-
malezas/.
Metageek. (2011). Metagreek. Recuperado el 10 de 05 de 2011, de Metagreek:
http://www.metagreek.net/products/Insider
MinTic. (2014). Mintic.gov.co. Recuperado el 29 de 09 de 2014, de
http://www.mintic.gov.co/portal/604/w3-article-6655.html
Moreno, J., & Fernandez , D. (2007). Informe tecnico protocolo Zigbee IEEE 802.15.4. No publicado.
Noticias Palermonline. (2014). palermonline. Recuperado el 5 de 10 de 2014, de palermonline:
http://palermonline.com.ar/
peru21.pe. (2014). http://peru21.pe. Recuperado el 30 de 09 de 2014, de
http://peru21.pe/tecnologia/instalan-redes-internet-wi-fi-gratuito-lima-2165993
Romero, S., Tesoriero, R. V., Gallud, J., & Penichet, V. (2004).
http://www.sebastianromero.net/papers/rmaps.pdf. Recuperado el Miercoles de Septiembre
de 2013
Safe&Savvy. (2014). safeandsavvy. Recuperado el 05 de 10 de 2014, de http://safeandsavvy.f-
secure.com/: http://safeandsavvy.f-secure.com/2014/09/29/danger-of-public-wifi/
68
siliconweek. (2014). siliconweek. Recuperado el 27 de 09 de 2014, de siliconweek:
http://www.siliconweek.com/actualidad/el-gobierno-venezolano-promete-wifi-gratis-en-
las-principales-ciudades-del-pais-51321
Solorzano, L. (2007). Telefonica:Investigación y Desarrollo. Recuperado el 2 de Septiembre de 2013,
de http://www.lacofa.es/index.php/tecnologias/futuro-de-internet/geoweb-contenidos-
georeferenciado
Wi-Fi Alliance. (2005). WPA and WPA2 Implementation White Paper.
69
Incidencia de la tecnología Li-Fi en el
funcionamiento de equipos
electrónicos presentes en las
instalaciones hospitalarias de la
ciudad de Medellín
Carlos Alberto Úsuga Vélez 11[autor]
Abel Fernando Gutiérrez Arias 11[autor]
Henslly Manyoma 11[autor]
Álex Ferney Collazo Patiño 11[autor]
Nelson Jhair Mosquera Palacios 11[autor]
Resumen
La sensibilidad de los sensores de ciertos dispositivos electrónicos (Equipos médicos) los
limita a ser utilizados en condiciones que no permiten un entorno con fuertes campos
electromagnéticos. Estos pueden afectar su funcionamiento, resultados e incluso generar
fallas en los mismos. Es por ello que se requiere utilizar una alternativa a las fuentes que
generan campos electromagnéticos; específicamente aquellas que surgen de la transmisión de
datos las cuales son utilizadas actualmente en los hospitales.
Se busca que estas entidades comprendan que el uso de redes WiFi pueden afectar el
funcionamiento de sus equipos médicos. El estudio pretende generar información relevante
sobre la incidencia de éste tipo de tecnología y mostrar la viabilidad de la implementación de
Li-Fi en estos lugares. Todo esto permitirá dar respuesta al siguiente cuestionamiento: ¿De qué
manera la implementación de la tecnología Li-Fi influiría en los dispositivos electrónicos
presentes en las instalaciones hospitalarias?
Los objetivos planteados en el proyecto son los siguientes:
- Determinar la viabilidad del uso de la tecnología Li-Fi en los hospitales del área
metropolitana de la ciudad de Medellín.
- Investigar que equipos electrónicos dentro de las instalaciones hospitalarias pueden
ser afectados por señales electromagnéticas.
- Indagar qué instalaciones hospitalarias poseen equipos que pueden ser interferidos
mediante señales electromagnéticas.
11 Programa de Ingeniería de Sistemas, Semillero de Investigación SEMCEI, Corporación Universitaria Remington, Medellín. Correo
electrónico: [email protected]
70
- Determinar el grado de afectación de los dispositivos electrónicos presentes en las
instalaciones hospitalarias.
- Analizar la viabilidad de la tecnología Li-Fi mediante un estudio de factibilidad para
así definir la posibilidad de su implementación.
- Determinar dada la viabilidad del Li-Fi; los componentes que se requieren para su
implementación en las instalaciones hospitalarias.
Introducción
El proyecto tiene como objetivo proporcionar una variedad de valiosa información
en torno a la tecnología LI-FI, algunos de sus procesos y factores que influyen de
manera directa o indirecta en la misma, para lo cual es necesario realizar un recorrido
por distintas nociones de esta tecnología, con el fin de acercarse lo más exacto a su
naturaleza. Posteriormente, se realizará un análisis de procesos, materiales, factores y
variables que de una u otra forma deben ser tomadas en cuenta para dicho fin
permitiendo la aplicación y empleo de la misma. No se pretende llegar a una
respuesta absoluta, sino entregar algunos elementos que permitan a la sociedad tener
una herramienta de apoyo, la cual guíe de manera clara y permita decidir si es viable
emplear o no esta tecnología en ciertos ambientes específicos.
La tecnología Li-fi es un medio de transmisión digital mediante el cual se trasmite
Internet por medio de luz, dicha tecnología es un sistema óptico inalámbrico de alta
velocidad que supera las limitaciones del espectro radioeléctrico explorando una
parte completamente distinta del espectro electromagnético permitiendo la
implementación de este sistema en lugares e instalaciones que no permitan (porque
los aparatos utilizados generan interferencia la cual afecta el funcionamiento de los
mismos) dispositivos radio-eléctricos; es el caso de los hospitales.
Marco Teórico
Li-Fi (Light Fidelity) traduce literalmente Luz Confiable, y hace referencia a las
telecomunicaciones usando ondas electromagnéticas pertenecientes al espectro de la
radiación visible. Esta tecnología transfiere datos de alta velocidad a través de la
radiación luminosa que son procesados por un router con puerto óptico. Li – Fi es un
estándar de comunicaciones inalámbricas que usa como agente propagador a la luz
visible. Li-Fi está fundamentado en la tecnología VLC (Visible Light Communication),
que emplea pulsos estrechos de luz para representar los datos, con una serie de
cambios entre los cuales se distingue el empleo de un transmisor usado luminarias
implementadas con diodos emisores de luz blanca de gran intensidad lumínica, y el
incremento de la tasa de bits que van desde los 100 MBps hasta la sorprendente
cantidad de los 500 MBps.
71
Harald Haas es el creador de un nuevo tipo de bombilla que permite además de
iluminar, generar un acceso a Internet usando ondas lumínicas (Li Fi). Haas es
profesor de ingeniería en la Universidad de Edimburgo, quien ha pasado muchos años
estudiando diferentes métodos para lograr la transmisión de señales de datos. Su
último trabajo es el sistema D – Light el cual utiliza la técnica matemática de OFDM
(multiplexación por división de frecuencia ortogonal) para generar señales que
pueden ser captadas por diferentes tipos de receptores. Su objetivo es la transmisión
de datos hasta 1 GB buscando la prestación de servicios que son mucho menos
limitados que lo que se tiene disponible hoy en día.
Basado en la teoría de electromagnetismo de Maxwell, la luz y la propagación de
radio siguen las mismas leyes de la física. Sin embargo, las señales ópticas tienen
significativamente menor longitud de onda en comparación con la de las señales de
radio. Por ejemplo, la teoría de la acústica geométrica sólo es aplicable cuando la
señal electromagnética interactúa con estructuras mucho más grandes que su
longitud de onda. En efecto, la acústica geométrica puede simplificar en gran medida
el análisis de la propagación óptica aunque no describe algunos fenómenos
importantes, tales como la difracción.
La pequeña longitud de onda óptica también es responsable de más alta dispersión
de la luz por partículas. La denominada solución de dispersión de Mie a las
ecuaciones de Maxwell describe la dispersión de la radiación electromagnética por
partículas con tamaño comparable o mayor que la longitud de onda. Por otro lado,
para partículas mucho más pequeñas que la longitud de onda, la dispersión de las
ondas electromagnéticas se puede explicar por la dispersión de Rayleigh. Todo esto
permite transmisión de datos a más alta velocidad a partir de una fuente óptica.
Metodología Empleada
El tipo de investigación es exploratoria. Se realizarán pruebas de interferencia por la
utilización de WiFi en algunos hospitales que se encuentren cerca de la Corporación
universitaria Remington.
Se diseñarán y aplicarán encuestas a los administradores de las instalaciones
hospitalarias.
Resultados y Conclusiones
Al concluir la investigación se espera determinar la incidencia de la utilización del
WiFi en los equipos médicos, además de determinar la viabilidad de la
implementación de la tecnología Li-Fi en los hospitales.
72
Referencias
Anónimo. (2014). LI-FI. Recuperado de http://www.areatecnologia.com/nuevas-tecnologias/li-
fi.html
Anónimo. (2013). LiFi: Internet inalámbrico a través de luz LED.
Recuperado de http://colombiadigital.net/actualidad/noticias/item/5921-lifi-internet-
inalambrico-a-traves-de-luz-led.html
El Becario (2014). México será el primer país de Latinoamérica con tecnología Li-Fi. Recuperado de
http://codigoespagueti.com/noticias/mexico-li-fi/
Haas, H. (2014). Wireless Data From Every Light Bulb. Recuperado de
http://datascience.berkeley.edu/harald-haas-wireless-data-every-light-bulb/
Mihaela, M. (2014). El Li-Fi, una tecnología que permite el acceso al Internet mediante los pulsos de
luz. Recuperado de http://innovacion.ticbeat.com/lifi-tecnologia-permite-acceso-internet-
mediante-pulsos-luz/
Professor H. Haas. (2015). Recuperado de http://www.see.ed.ac.uk/drupal/hxh/
Safari, M. (2014).How Li-Fi is different from RF Wireless. Recuperado de
http://www.see.ed.ac.uk/drupal/hxh/news/2014/06/09/how-li-fi-is-different
73
Vulnerabilidad con Wifislax
Alexánder Montes Ospina 12[autor]
Yésika Valencia Márquez 12[autor]
Julio César Gómez 12[autor]
Resumen
La protección de los sistemas informáticos es una preocupación del día a día de los expertos
en seguridad informática, la vulnerabilidad de estos, se convierte en el objetivo principal, en la
lucha contra ataques a huecos en la red. Hoy en día todavía se utilizan protocolos inseguros
como el WEP y por otro lado el WPA, que se decía que era el más seguro, pero es vulnerable
como se pretende mostrar con el desarrollo de ésta investigación. Algunas investigaciones al
respecto de la temática propuesta no se han hallado en la revisión bibliográfica; solo se ha
encontrado información presente en foros, videos demostrativos y tutoriales.
Para poner a prueba la hipótesis planteada (vulnerabilidad de algunos protocolos), se
propone ejecutar diferentes experimentos enfocados en aplicar diversas formas de ataque, y
de acuerdo a los resultados se elaborarán sugerencias de cómo prevenirlos. Para realizar los
ataques a partir de diferentes técnicas, se usará la herramienta Wifislax.
El estudio ejecutado muestra cómo el Wifislax vulnera los protocolos de seguridad, lo que
demuestra que existen ataques que potencialmente afectarían los sistemas informáticos,
ilustrando que no existen protecciones óptimas para la información de tipo empresarial, y en
general la de cualquier usuario.
La investigación propuesta pretende crear conciencia en los usuarios de las redes de WiFi de
la importancia de la seguridad de la información, puesto que la confidencialidad de la misma
no ésta totalmente asegurada. De igual forma se busca proponer diferentes opciones que se
pueden implementar a nivel práctico, que sirvan para mejorar el grado éxito de algunas
herramientas de seguridad en espacios corporativos.
La pregunta de investigación planteada es la siguiente: ¿Qué estrategias son las más
adecuadas para minimizar la vulnerabilidad en redes WiFi?
Los objetivos seleccionados para la investigación son los siguientes:
- Demostrar la vulnerabilidad de los protocolos WiFi utilizando Wifislax.
- Realizar pruebas de campo de ataque a sistemas informáticos utilizando Wifislax.
- Enunciar recomendaciones predictivas y preventivas ante los posibles ataques por
medio de Wifislax.
12 Programa de Ingeniería de Sistemas, Semillero de Investigación SEMCEI, Corporación Universitaria Remington, Medellín. Correo
electrónico: [email protected]
74
Introducción
La palabra vulnerabilidad viene del latín pues está conformada por tres partes
claramente diferenciadas: el sustantivo vulnus, que puede traducirse como “herida”; la
partícula – abilis, que es equivalente a “que puede”; y finalmente el sufijo –dad, que es
indicativo de “cualidad”. De ahí que vulnerabilidad pueda determinarse como “la
cualidad que tiene alguien para poder ser herido” (Anónimo, 2014). En el área de
sistemas se define la vulnerabilidad como la debilidad de cualquier tipo que
compromete la seguridad del sistema informático.
Desde que el ordenador pasó a formar parte de nuestras vidas almacenando
nuestros datos personales y convirtiéndose en una de las principales herramientas de
comunicación, mediante el uso de Internet, ha ido creciendo la conciencia de que
nuestros datos están expuestos a posibles intromisiones por parte de otras personas
que quisieran apoderarse de ellos. Esto ha hecho que, cada vez más, vayamos
tomando conciencia de los peligros que supone dejar desprotegidos y a merced de
posibles intrusos estos datos. La peor consecuencia de que alguien entre en nuestros
equipos o intercepte nuestras comunicaciones es que se lleve datos importantes,
como claves bancarias, números de tarjetas de crédito, etc., que pongan en riesgo
nuestra integridad o permitan la suplantación de nuestra identidad. Cuando se habla
de medidas de seguridad informática, lo primero que nos viene a la cabeza son las
medidas destinadas a impedir virus o accesos no autorizados en los equipos
informáticos. Pero hay otro tipo de medidas que se pueden tomar respecto de los
propios datos y son las consistentes en hacer que estos datos sean indescifrables por
personas que accedan a ellos indebidamente (Romero, R; Pérez, R; Escriva, G &
Ramada, D, 2013). Debido a esto se utilizará el wifislax (Software) para investigar las
vulnerabilidades en las redes wifi. Éste software es una distribución de Linux la cual
utiliza herramientas que manejan métodos de ingeniería social y auditoría de
seguridad Wireless (inalámbrica) permitiendo capturar paquetes de datos de tal forma
que se pueda descifrar las claves de las diferentes redes inalámbricas.
Es importante mencionar que se puede encontrar en la auditoria de seguridad
Wireless elementos como: escáner de puertos, scanner de seguridad, vpnscanner y
aplicaciones de auditoría Wireless.
Marco Teórico
Wifislax está orientado a la auditoria de seguridad Wireless. Se puede encontrar en
wifislax:
Escáner de puertos: nmap, Scanner de seguridad: SuperScan, Vpnscanner: IKE-
Scan, Aplicaciones de auditoría Wireless: aircrack, commview.
75
Vulnerabilidades Críticas de la encriptación WPA / WPA2.
Claves por defecto: las claves por defecto son las asignadas por defecto en el
equipo enrutador por el fabricante. Éstas claves generan serios problemas de
seguridad debido a que existen diccionarios que recopilan todas estas claves, y a
través de un ataque de fuerza bruta es factible obtener el acceso completo a la red
inalámbrica WiFi.
WPS: El protocolo WPS genera una problemática seria asociada a la metodología de
asociación de PIN. El PIN está conformado por una cadena de ocho dígitos, pero
cuando se ingresan erróneamente los primeros cuatro dígitos entonces el router
genera el mensaje EAP NACK y como el equipo no impone un número finito de
posibles ingresos del PIN, entonces es posible ejecutar un ataque de fuerza bruta
exitoso probando todos los posibles valores del PIN en un intervalo de tiempo
también finito. Se sugiere para solucionar esta gravísima falla inactivar el protocolo
WPS.
Mac Spoofing: Este suceso aparece cuando un atacante obtiene el valor de la
dirección MAC de una red suplantando a un cliente autorizado. Esta modalidad de
irrupción suele ocurrir debido a que las tarjetas de red usualmente tienen activa la
opción de cambiar el número MAC por otro diferente.
Denial of Service: El ataque DoS (Denial Of Service) provoca la negación de un
recurso o servicio a los clientes verdaderos de la red. Usualmente es empleado para
causar una pérdida de conectividad en el servicio por la reducción del ancho de banda
generada por la sobrecarga de solicitudes de disociación, y su efecto visible es la
imposibilidad de otros usuarios a acceder a los recursos, ya que los componentes de
la red se asocian y desasocian una y otra vez.
Access Point Spoofing: En esta situación el atacante genera un punto de acceso
falso que emula al original. El cliente cree engañosamente que está conectándose una
red WLAN certificada, cuando realmente se está conectado directamente a la creada
por el atacante.
Man in the Middle (hombre en el medio): En esta situación el atacante está en la
capacidad de leer y modificar a su voluntad todos los mensajes transferidos entre 2
usuarios víctimas, sin que ninguna de ellos detecte la intrusión, operando por lo tanto
como una conexión entre los dos usuarios atacados (Bautista, H. 2014), tal como se
ilustra en la figura 1.
76
Figura 1. Ataque tipo “Man in the Middle”. La imagen fue elaborada por los autores.
Metodología Empleada
El tipo de investigación es exploratoria.
Se realizarán pruebas de campo tomando como referencia las redes WiFi que están
localizadas en los alrededores de la Corporación Universitaria Rémington, a través de
la interceptación de paquetes de datos, y se tratará de obtener la clave de
encriptación mediante la distribución de Linux Wifislax y sus herramientas.
Adicionalmente se diseñarán y aplicarán encuestas a los usuarios y administradores
de las redes, previa selección de la muestra poblacional.
Resultados y Conclusiones
Al finalizar la investigación se espera probar experimentalmente la vulnerabilidad
de los sistemas de información utilizando Wifislax.
Se generarán una serie de recomendaciones a los usuarios de las redes
inalámbricas, enfocadas en la protección de sus datos frente algunos ataques de
Wifislax; y dicha información se consignará en una guía de uso público.
77
Referencias
Anónimo. (2014). Recuperado de http://definicion.de/vulnerabilidad/#ixzz3FUYj2IGM
Anónimo. (2014). Recuperado de http://www.wifislax.com/
Anónimo.(2014). Recuperado de http://foro.seguridadwireless.net/manuales-de-wifislax-
wifiway/manual-basico-de-wifislax-y-sus-herramientas-de-auditoria/
Bautista, H. (2014). Vulnerabilidades de una red Wi-fi. Recuperado de
http://rootear.com/seguridad/vulnerabilidades-una-red-wi-fi
Calzada, I. (2014). Aplicación de la seguridad informática. Recuperado de
http://losganzosrosas.blogspot.com
Romero, R; Pérez, R; Escriva, G & Ramada, D. (2013). Seguridad informática. España: Macmillan
Iberia, S.A., 2013. ProQuest ebrary. Web. 24 February 2015.
78
Implementación de manejo de
inventario por tecnología RFID
Sebastián Guzmán Uribe 13[autor]
Ariel Ochoa Arboleda 13[autor]
Marcela Vitar 13[autor]
Leidy Juliana Colorado 13[autor]
Rubén Darío Sierra García 13[autor]
Resumen
El Centro de la Tecnología de la Manufactura Avanzada (CTMA) es un centro de formación del
SENA Regional Antioquia, referente regional en formación tecnológica en 5 áreas:
Automatización, Automotriz, Electricidad, Manufactura y TIC. La infraestructura tecnológica, las
personas que lo integran y la experiencia adquirida en el desarrollo de proyectos de tecnología
han permitido consolidar esta posición del centro de formación desde su creación.
La coordinación TIC del centro concentra su trabajo en temas relacionados con la aplicación
de las tecnologías de la información y las comunicaciones, con programas de formación en
telecomunicaciones, electrónica, desarrollo de software, redes de datos, entre otros. Para
apoyar estos procesos, con el paso de los años han ingresado al almacén del área una serie de
herramientas tecnológicas que han permitido desarrollar acciones de formación e investigación
de acuerdo a los requerimientos de la industria.
Lo anterior ha llevado a que en la actualidad los procesos asociados a la bodega del Área TIC
sean un punto crítico de todo el proceso formativo, ya que aquí se gestiona gran parte de la
infraestructura disponible. Los aprendices acuden a este para el préstamo de equipos, pero a
su vez, deben responder ante el almacén del centro por los bienes que manejan.
Se ha encontrado que durante los procesos de toma física de inventarios que se realizan por
parte del almacén del centro a la bodega del Área TIC, esta última permanece cerrada y los
aprendices no pueden solicitar elementos para apoyar su actividad formativa durante varios
días (más de 30 días), debido a que es un proceso manual, elemento por elemento, donde hay
elementos obsoletos y elementos dañados. También se ha observado que los procesos de
préstamo de elementos desde la bodega son poco eficientes, debido a que no se tiene un
espacio totalmente señalizado, el proceso de préstamo es manual y se mezclan equipos
dañados con equipos buenos.
Con este proyecto se busaca implementar un prototipo para la toma de inventarios y el
préstamo de equipos que permita reducir a la mitad el tiempo que deben esperar los
aprendices del área TIC del CTMA cuando realizan solicitudes de elementos en el almacén.
13 Programa de Diseño e implementación y mantenimiento de sistemas de telecomunicaciones, Semillero de Investigación
SINDETEL, SENA Antioquia, Medellín. Correo electrónico: [email protected]
79
Introducción
Según RFID Journal, “la Identificación por radio frecuencia, o RFID, es un término
genérico para definir tecnologías que emplean ondas radiales para identificar de
manera automática a personas u objetos” (RFID Journal Español).
La Identificación por Radiofrecuencia es una tecnología de captura e identificación
automática de información almacenada en etiquetas (Tags o transpondedores). Este
proceso automático se da cuando los transpondedores entran en el área de cobertura
de un lector RFID. El lector envía una señal para que la etiqueta le transmita la
información almacenada en su memoria (Portillo, Bermejo, Bernardo, & Martínez,
2008).
Un sistema de RFID está integrado por un lector y una etiqueta que a la vez posee
un microchip, y una antena. Hay una gran variedad de sistemas de RFID, pero su
funcionalidad es casi siempre la misma, el lector envía ondas electromagnéticas la
cual las etiquetas captan inmediatamente dando una respuesta rápida (RFID Journal
Español).
El RFID maneja dos tipos de etiquetas: Las pasivas, son aquellas que no cuentan con
una fuente de energía propia, captando esta misma del campo generado por el lector
y proveen de energía a los microcircuitos del microchip, la función de este es modular
las ondas que la etiqueta envía al lector convirtiéndolas en información digital.
Las etiquetas activas, son aquellas que poseen una fuente de energía propia y a la
vez emiten su señal. Los sistemas de ubicación no responden en tiempo real a las
señales del lector, pero en cambio emiten sus señales en intervalos fijos. Los lectores
captan esa señal para así mismo utilizar un software para calcular la ubicación de la
etiqueta.
Marco Teórico y Estado del Arte
Talnor Technology (2012), informa que el estándar RFID existe desde hace más de
50 años, y fue inicialmente empleada en el sector de la milicia, en aplicaciones de
identificación de aviones aliados en la segunda guerra mundial, luego la tecnología se
migró hacia aplicaciones comerciales, en procesos de trazabilidad y seguimiento de
piezas sensibles a ser trasladas continuamente de un sitio a otro. Esta tecnología
empezó a ser reconocida en los últimos años debido a su alta viabilidad de
incorporarse exitosamente en procesos comerciales e industriales, debido al bajo
costo de sus componentes y la alta confiabilidad funcional del estándar RFID.
Esta tecnología permite adelantar en la actualidad el proceso de recopilación de
información de forma automática y con gran exactitud, donde lo que determina el uso
de esta información capturada es el software encargado de construir la base de datos
80
dependiendo de las necesidades que tenga el cliente; por esta razón la RFID puede ser
empleada para cualquier tipo de actividad que necesite de un control y un
almacenamiento de información, convirtiendo a esta tecnología en una herramienta
adecuada para las necesidades de quien la desee utilizar.
La tecnología RFID se emplea en sectores tales como: Eventos deportivos o de otra
naturaleza, mercadotecnia, videojuegos, aplicaciones para equipos electrónicos,
sector aeronáutico, ganadería y transporte de cargas.
Metodología Empleada
El tipo de Investigación adelantada por el equipo de trabajo es aplicada.
Resultados y Conclusiones
Se proponen los siguientes resultados al finalizar la investigación:
- Análisis del funcionamiento de herramientas de identificación basadas en
tecnología RFID.
- Comparación de las diferentes herramientas de identificación basadas en
tecnología RFID disponibles en el Centro de Tecnología de la Manufactura
Avanzada.
- Diseño de un sistema de identificación de elementos para el Almacén del
Área TIC del Centro de Tecnología de la Manufactura Avanzada empleando
tecnología RFID.
- Diseño de un sistema informático de préstamo de elementos del inventario
para el Almacén del Área TIC del Centro de Tecnología de la Manufactura
Avanzada.
Referencias
Portillo, J., Bermejo, A. B., Bernardos, A., & Martinez, I. (2008). Informe de Vigilancia Tecnológica
Madrid “Tecnología de identificación por radiofrecuencia (RFID): Aplicaciones en el ámbito
de la salud”. Madrid: Fundación Madrid para el Conocimiento.
RFID Journal Español. (s.f.). PREGUNTAS FRECUENTES. Obtenido de Sitio Web de RFID Journal
Español: http://espanol.rfidjournal.com/preguntas-frecuentes
81
Aplicación y uso de un repositorio de
activos de software para el desarrollo
ágil de aplicaciones, caso de estudio:
Triage de pacientes con riesgo
cardiovascular
Andrés Casas Betancur 14[autor]
William Alejandro Cabezas Posso 14[autor]
Jimy Andrés Zuluaga Aristizábal 14[autor]
Leidy Juliana Colorado 14[autor]
Javier Darío Fernández Ledesma 14[autor]
Resumen
Se propone la implementación, uso y aplicación de un repositorio de activos de software de
reuso a través de un framework de desarrollo de software, desarrollado y licenciado por el
Laboratorio de Software de la Universidad Cooperativa de Colombia, sede Medellín; el cual
posibilita su incorporación en los entornos del desarrollo ágil de aplicaciones, mostrando su
validez en un caso de estudio como es el Triage de pacientes con riesgo cardiovascular.
Introducción
Esta propuesta se ha justificado bajo la premisa que permitirá generar nuevas
capacidades de innovación y gestión en la línea de investigación de desarrollo de
software, permitiendo disminuir los tiempos de entrega en los procesos de
transferencia y construcción de prototipados para los clientes internos y externos del
grupo de investigación y a través de la transferencia a las pequeñas y medianas
empresas desarrolladoras de software.
Así mismo, según la problemática manifestada en el estado del arte; el uso del
repositorio propuesto resulta de gran utilidad al impulsar la acogida de la
14 Programa de Ingeniería de Sistemas, Semillero de Investigación Sistemas en operaciones y desarrollo aplicado, Universidad
Cooperativa de Colombia, Medellín. Correo electrónico: [email protected], [email protected],
82
reutilización de activos de software mediante el suministro de un método, y un
repositorio para la gestión de dichos activos con mayor eficiencia, mejorando la
experiencia del usuario desarrollador en cuanto a que el sistema responderá de una
mejor manera a sus procesos de búsqueda.
Para las empresas desarrolladoras de software se presenta un beneficio innegable,
dado que es comprobada la ventaja competitiva que ofrecen las estrategias de
reutilización de software en los procesos de desarrollo; finalmente las compañías
demandantes de productos software percibirán también el impacto dado que sus
requerimientos serán atendidos de manera más oportuna y con productos de calidad
superior ya que como se ha hecho notar arriba, la reutilización provee calidad en el
desarrollo de software dado que se parte de un estado inicial en el que gran parte del
software se encuentran validados y probados previamente, posibilitando mecanismos
de transferencia desde el grupo con capacidades adquiridas para la comunidad de
desarrolladores y la industria del software en la región.
Marco Teórico y Estado del Arte
Hablar de los repositorios de reuso de activos de software es hablar de las
herramientas de apoyo a la gestión de los activos de software, dado que la gestión de
componentes de reuso de una forma manual resulta difícil, sobre todo cuando se
tienen miles de componentes para su reuso; en este sentido, los procesos de gestión
mediante repositorios de activos, implican el desarrollo de etapas como: el análisis de
las necesidades del reuso, los métodos de recuperación de activos y la integración de
estos con las aplicaciones y el desarrollo de software; los métodos de recuperación,
consulta o búsqueda principalmente se dan mediante la interacción con los
repositorios de activos.
Ahora bien, un repositorio de activos de software de reuso en su composición
original presenta: una interfaz de búsqueda, un método de representación de los
activos y de gestión de los mismos y un entorno de almacenamiento, haciendo
especial énfasis en los métodos de búsqueda o indexación, bien sea mediante textos,
palabras claves o características de los activos, garantizando principalmente la
ubicación y configuración de los activos en el menor tiempo y con la mayor eficiencia
posible, sobre los cuales siempre se pueden encontrar mayores eficiencias.
En síntesis, un repositorio de reuso es una colección de activos reutilizables, junto
con un mecanismo de búsqueda y de localización de los activos que satisfagan las
necesidades de desarrollo.
83
Por otro lado, los activos de software son los productos o subproductos del proceso
de desarrollo de software. Se incluyen tanto los elementos tangibles (por ejemplo, el
código, el diseño, los algoritmos, los planes de prueba y documentación) e intangibles
(por ejemplo, los conocimientos y metodologías). Y la reutilización es el uso de los
activos existentes en el desarrollo de otro software con el objetivo de incrementar la
productividad, calidad y otros factores (por ejemplo, la facilidad de uso). En este
orden de ideas pueden ser reutilizados: las arquitecturas, datos, diseños,
documentación, cálculos, interfaces humano-maquinas, los planes, requisitos, casos
de prueba, así como el conocimiento y la experiencia del personal.
Trabajos como los de (Mili et al, 1998) se centran en el estudio de los métodos de
almacenamiento y recuperación de activos de software en los repositorios de activos
de software. Por su parte los trabajos de (Yunwen et al, 2000) se basan en la
integración de los sistemas de repositorios de activos. (Wang et al, 2008) por su
parte, plantea el diseño e implementación de una herramienta RAS basada en la
gestión de activos reutilizables. Otras propuestas son la administración de datos
federados a través de la herramienta Rational de IBM y su software WebSphere
presentada en (Schmidt et al, 2007) el cual se funda en la concepción de mantener
varios repositorios de una manera federada según los tipos de comunidades y de
conocimiento al que sirven, mediante estrategias aplicadas en las dos herramientas:
IBM Rational® Asset Manager Development Repository y el IBM WebSphere® Service
Registry and Repository. En este mismo sentido los repositorios de componentes,
enmarcados en el desarrollo actual de la ingeniería de software brindan un eslabón
evolutivo más para abordar de una manera más disciplinada el proceso de
construcción de software, a pesar de las múltiples metodologías existentes, pero con
un elemento siempre común cual es el refinamiento sucesivos de los artefactos de
software; Entre los más comunes se encuentran: Component Source
(http://www.componentsource.com), AquaLogic (http://www.bea.com), WebSphere
(http://www.ibm.com), Rational Asset Manager (http://www.ibm.com), Repository
Manager (http://www.soa.com), DA Manager (http://www.digitalassets.com.br),
Brechó (http://reuse.cos.ufrj.br), CORE (http://www.rise.com.br), X-CORE
(http://www.compose.ufpb.br), Debian (http://packages.debian.org), Gentoo
(http://packages.gentoo.org), Ubuntu (http://packages.ubuntu.com), Code Beach
(http://www.codebeach.com), Savannah (http://savannah.gnu.org), SourceForge
(http://sourceforge.net), CVS (http://www.cvshome.org), Subversion
(http://subversion.tigris.org), entre otros muchos otros como: Maven, Archiva,
Nexus, SourceForge, Google Code, Basic Asset Retrieval Tool e Component
Repository, ArcSeeker, etc. Finalmente, (Almeida et al, 2008) habla sobre el proceso
de reuso de software.
84
En este contexto encontramos como las compañías de desarrollo de software están
actualmente sometidas a presiones de tipo comercial que las obliga a optimizar sus
procesos de desarrollo para responder más rápidamente y sin sacrificar la calidad a
los requerimientos de las compañías demandantes. En respuesta a esta situación han
surgido una serie de estrategias metodológicas siendo las de mejores resultados
aquellas que proponen la reutilización sistemática de los activos de software, práctica
que involucra el manejo de repositorios para almacenar dichos activos y el uso de
técnicas para la gestión de los mismos. En este trabajo se pretende desarrollar un
método orientado a la reutilización de activos de software mediante su
implementación a través de un repositorio propio; dicha propuesta de método y
herramienta de gestión deberá facilitar la creación, almacenamiento y recuperación de
activos de software, principalmente orientados a la representación de componentes
de software desarrollado para su adecuada gestión como una contribución para
establecer las bases de un proceso de industrialización de software.
Ahora bien, como resultado de un esfuerzo conjunto entre la academia y la
empresa, han surgido una serie de propuestas metodológicas aplicables a los
procesos de desarrollo de software buscando que estos se ejecuten más rápidamente
sin sacrificar la calidad esperada por la demanda. Dichas propuestas hacen énfasis en
la optimización de las actividades necesarias para el desarrollo de aplicaciones y
también las relacionadas con el posterior servicio de soporte; resulta entonces
fundamental incorporar buenas prácticas de trabajo en la disciplina del software que
permitan un aumento en la capacidad y que faciliten las labores de mantenimiento,
ampliación y renovación tecnológica de las plataformas.
Una de las principales iniciativas para mejorar la productividad y la calidad de los
procesos de desarrollo de software plantea la reutilización como una actividad
sistemática; es decir, hacer posible el uso, para proyectos en curso, de piezas
software desarrolladas en proyectos anteriores con el propósito de constituir esto
como una ventaja competitiva y un catalizador del proceso de desarrollo de
aplicaciones; ahora bien, la reutilización es la única aproximación realista para llegar
a los índices de productividad y calidad que la industria del software necesita.
No obstante, los esfuerzos encaminados al planteamiento de metodologías y
técnicas para facilitar la práctica del reuso han dado resultado ya que mediante estas
se han logrado las mejores métricas de rendimiento de las últimas cuatro décadas.
Entre los beneficios de la reutilización del software se encuentra la reducción de
errores de desarrollo ya que cada vez que los componentes son usados se revisan
nuevamente dando mayor confianza para su uso posterior aportando así a la calidad
del producto final y reduciendo los tiempos de mercado de las aplicaciones; otro
beneficio es la reducción de costos y de la incertidumbre en cuanto a la inversión, ya
que al partir de componentes previamente elaborados estos normalmente tienen un
costo conocido. De acuerdo con datos presentados por el departamento de defensa
85
de los Estados Unidos de América, un incremento en sus prácticas de reuso para el
desarrollo de software de un 1% podría significar una reducción de hasta US$ 300
millones anuales. La reutilización de componentes además provee una manera de
establecer patrones de desarrollo en las organizaciones y promueve la
documentación, estrategia fundamental para dicha práctica, ya que sin ella no es
posible sobrepasar la etapa de entendimiento de los activos.
A pesar que los beneficios de la reutilización de software son bastante relevantes y
han sido suficientemente probados, existen una serie de inconvenientes no solo de
carácter técnico si no también administrativo, conceptual, económico y organizacional
que no han permitido una acogida masiva de esta estrategia en las empresas
dedicadas al desarrollo de software, entre dichos inconvenientes se encuentran la
falta de un mecanismo de recuperación de activos suficientemente eficiente, la
carencia de métricas que reflejen los beneficios de la reutilización; la predisposición
del personal a la inclusión de la reutilización entre sus actividades de desarrollo por
falta de apoyo a las actividades de gestión y los retos gerenciales que implica un
proyecto de reutilización a gran escala.
Con el incremento del número de artefactos disponibles para reutilización se hace
más necesaria una técnica de recuperación de los mismos que los exponga
claramente de manera que puedan ser entendidos permitiendo así que el desarrollo
basado en componentes resulte más rápido que el realizado desde cero; en este
orden de ideas, al hablar sobre los mitos de la reutilización del software, casi el único
problema técnico para el reuso es la falta de formas apropiadas para la recuperación
de las piezas de software y la falta de mecanismos para la construcción de
componentes de calidad.
Metodología Empleada
El proyecto comienza con el estudio bibliográfico de los antecedentes previos sobre
el uso de repositorios de activos de software; las metodologías de reuso y el uso de
repositorios. Esto permite obtener un primer acercamiento conceptual al reuso y al
uso de los repositorios de activos de software para el desarrollo ágil de aplicaciones
desde las etapas tempranas.
En este orden de ideas se realizará además un estudio de los conceptos
relacionados con el dominio de la Telesalud, específicamente el triage de pacientes
con riesgo cardiovascular.
Posteriormente se procedió a definir el diseño del caso de estudio haciendo uso del
lenguaje notacional UML y BPMN.
Luego se procedió a definir los patrones de reuso hallados en el modelado del caso
de estudio; los cuales se procedieron a incorporar en el repositorio Activos,
86
repositorio licenciado desarrollado por el Laboratorio de Software de la Universidad
Cooperativa de Colombia, sede Medellín y se realizaron las validaciones del caso.
Resultados y Conclusiones
Los resultados finales propuestos en la investigación son los siguientes:
- Coadyuvar en los procesos de diseño de software mediante la verificación de
reglas de reuso en los patrones propuestos.
- Permitir el uso de un repositorio para la verificación de las reglas de reuso de
los modelos existentes y los modelos creados
- Dotar de una metodología de reuso integral, flexible y segura para la gestión
de los activos de software.
- Aumento de la productividad en los índices de gestión y control de los
procesos de desarrollo de software mediante la reducción de ocurrencia de
errores en las fases de análisis y diseño de software.
- Disminuir los tiempos de modelado de software.
A la fecha, la ejecución del proyecto ha permitido el mejoramiento de los siguientes
indicadores, en los contextos de construcción de software donde se ha
implementado:
- Mejoramiento en la calidad y la productividad en los procesos de desarrollo
de software.
- Disminución hasta de un 20% en la ocurrencia de errores en las fases de
análisis y diseño de software.
- Aumento en los niveles de calidad de los modelos de software.
- Integridad en el manejo de los modelos de software.
Así mismo, tanto las herramientas de diseño utilizadas como el repositorio han
resultado adecuadas a los propósitos planteados en la aplicación y uso de este
framework, a un bajo costo, flexible y adaptable.
87
Referencias
Almeida, E. et all (2008). Component reuse in software engineering. Creative Commons, 2008, 219
p.
Mili, A et all (1998). A survey of software reuse libraries. Annals of Software Engineering. Volume 5,
1998, pp 349-414.
Schmidt, M. et all (2007). Federated metadata management with IBM Rational and WebSphere
software. IBM white paper on Manager. 2007, pp 1-24.
Wang, Z. et all (2008). Design and Implementation of RAS-Based Reusable Asset Management Tool.
IEEE Proceedings international conference on internet computing in science and engineering.
2008, pp 363-366.
Yunwen, Y. et all (2000). Integrating Active Information Delivery and Reuse Repository Systems.
Human factors journal. 2000, pp 60-68.
88
Desarrollo de una estación
meteorológica de bajo costo
Elkin Fabián Prada Garavito 15[autor]
Miguel Ángel Corzo Ortiz 15[autor]
Yacer Gonzalo Ayala Contreras 15[autor]
Ricardo Andrés Díaz Suárez 15[autor]
Resumen
Las variables medioambientales son de vital importancia ya que nos permiten predecir y
conocer el comportamiento de los diferentes cambios climáticos para así poder anticiparnos y
estimar los efectos negativos presentes en algunos entornos agroindustriales.
En este documento se plantea un proyecto de diseño e implementación de un sistema de
monitoreo remoto de bajo costo el cual está conformado por una estación meteorológica
autónoma; con el fin de realizar mediciones de variables medioambientales como: presión
barométrica, velocidad del viento, humedad relativa, temperatura, anemómetro, colector de
agua, ruido ambiental; y de esta forma poder mantener un seguimiento de los datos los cuales
están almacenados en una base de datos alojada en un servidor remoto el cual se puede
acceder desde un aplicativo web en cualquier momento con el propósito de analizarlos.
Para el desarrollo de este proyecto se subdividirá este en tres fases principales: La primera es
una fase de investigación (Estado del arte) en el cual se documentara las tecnologías y
proyectos similares desarrollados en esta área; la segunda fase está conformada por diseño e
implementación del prototipo de estación meteorológica la cual estará equipada con los
diferentes sensores medioambientales, fuentes fotovoltaicas y su respectivo transmisor
inalámbrico; como última fase está el diseño de la base de datos para almacenar los valores
monitoreados y el entrono web para lograr visualizar de forma remota.
Introducción
El origen del proyecto en desarrollo se concibe desde la necesidad de presentar una
solución tecnológica de medición de variables ambientales de bajo costo que provea a
la agroindustria de las herramientas suficientes para optimizar la siembra de cultivos
y además permita realizar evaluaciones remotas para detectar agentes contaminantes
que afectan la producción. A raíz de esto el semillero de investigación REDSI empieza
a trabajar sobre las distintas tecnologías que permitan desarrollar la estación
meteorológica de bajo costo teniendo en cuenta las variables ambientales a trabajar y
15 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación REDSI, Universidad Santo Tomás, Bucaramanga.
Correo electrónico: [email protected], [email protected], [email protected], [email protected]
89
las diferentes alternativas de comunicación que se puedan emplear para así poder
observar los resultados desde cualquier lugar en forma remota.
Marco Teórico y Estado del Arte
Las estaciones meteorológicas son estructuras equipadas con diferentes
instrumentos que nos permiten realizar pronósticos meteorológicos a partir de
modelos matemáticos desarrollados por los comportamientos de variables
ambientales. Las estaciones meteorológicas se dividen en dos grupos, principales que
examinan lluvia, temperatura del aire, temperatura del ambiente, humedad, cantidad
de nubes, y fenómenos especiales y las estaciones ordinarias que contiene menor
cantidad de instrumentos de medición pero contienen los más esenciales como
temperatura, humedad y pluviosidad. (Francisco, 2008).
Un elemento típico de una estación son los sensores de la temperatura ambiente:
Son dispositivos que transforman los cambios de temperatura en señales eléctricas
las cuales son procesadas previamente por un equipo eléctrico o electrónico. Los
sensores de temperatura o termistores se basan en la variación de la resistividad de
un semiconductor con respecto a la temperatura. (Luís Hernández, 2015).
Otro equipo que hace parte de la estación es el anemómetro. Es un dispositivo
meteorológico que sirve para medir la velocidad del viento, y está constituido por un
pequeño molino de tres aspas sobre las cuales efectúa la fuerza del viento.
El anemómetro tiene gran cantidad de aplicaciones como en la agricultura nos
permite saber en qué momento se puede realizar riego por aspersión; en la aviación
la planeación de los vuelos en globos, planeadores, parapentes, paracaídas entre
otras aplicaciones aéreas; en ingeniería civil para seguridad de obras de gran altura
como grúas; en extinciones de incendios para saber cómo se propagara el fuego.
(Mejía, 2013).
Los higrómetros son dispositivos que sirven para valorar el estado de humedad del
ambiente. Existen dos tipos de higrómetro el de adsorción y el eléctrico.
En el proyecto se seleccionó un higrómetro electrónico el cual está conformado por
dos electrodos enrollados en forma de espiral, que al aplicarle una tensión a estos
provoca que el tejido se caliente, evaporando parte de agua contenida por el mismo a
una temperatura definida; y al establecerse el estado de equilibrio el equipo
determina el grado de humedad presente en el ambiente. (México, 2015).
Los barómetros son instrumentos que nos permiten conocer la presión atmosférica
encontramos gran variedad de clases de barómetros que varían en forma tamaño y
precisión para el proyecto se utilizara uno electrónico que nos que da los valores de
forma digital y son mucho más exactos. (Osés, 2006).
90
Los sonómetros son instrumentos diseñados para medir los niveles de presión
acústica en los distintos ambientes. (SunFields, 2015).
Sistema fotovoltáico autónomo (SFA)
La estación meteorológica a diseñar, tendrá una fuente de alimentación de energía
solar que se implementará con un sistema fotovoltáico.
Un sistema fotovoltáico está compuesto por un grupo de células fotoeléctricas
diseñadas para usar la radiación solar, que son los encargados de convertir la energía
solar (fotones) en energía eléctrica (electrones), mediante un dispositivo llamado
“célula solar o una célula fotoeléctrica”, con la ayuda de un fenómeno físico llamado
efecto fotovoltaico el cual una partículas llamadas fotones que transportan la energía
solar, chocan contra un metal el cual contiene electrones; de esta forma los átomos
son arrancados y se produce un movimiento de las cargas eléctricas que provee un
corriente electrónica. (Energía solar fotovoltáica, 2015).
Estos sistemas se caracterizan por ser independientes a la red eléctrica, y estos
están compuestos por diferentes subsistemas para la generación, regulación,
acumulación y adaptación de la corriente. (Universidad Politécnica de Madrid,
Politécnica, FECYT, 2015). Un elemento importantísimo en el sistema de energía solar
es el banco de baterías de DC, que se encarga de acumular la energía eléctrica
obtenida de la luz solar, la cual es recibida durante las horas de luminosidad. Esta
energía se recolecta en la batería con la finalidad de utilizarla en las horas de poca o
nula luminosidad.
El banco de baterías trabaja en conjunto con un sistema fotovoltaico, en las horas
de la noche el banco de baterías es el encargado de entregar la energía. Durante el
día los módulos fotovoltaicos son los encargados de generar y entregar la energía,
pero si se tiene el caso en que la corriente que se entrega es menor a la necesaria el
banco de baterías actúa y provee un aporte para superar este inconveniente.
(educalab, 2015).
Metodología Empleada
Como objetivo se planteó diseñar un sistema electrónico capaz de realizar la
recolección y transmisión de valores captados en una estación meteorológica remota.
El proyecto consta del desarrollo de un hardware que contenga circuitos de
captación, acondicionamiento de los sensores, comunicación vía GSM, unidad central
de procesamiento y fuente de alimentación fotovoltáico. El software a implementar en
la estación realiza la gestión de los usuarios, indicando los niveles de batería,
sensores y comunicaciones.
91
Para realizar la comunicación inalámbrica se requiere un sistema GSM previamente
instaladas por las compañías de telecomunicaciones, con el fin de conseguir una total
movilidad, así si el dispositivo se desea cambiar de ubicación no se tenga que
implementar nuevos métodos de transmisión, al contar con un sistema como este se
dispone de forma fácil al usuario él envió de sms como peticiones para conocer
parámetros de la estación y establecer alarmas en los parámetros deseados. (Diz J.,
García J. F., Darriba J., Rodríguez S, 2006).
La medición de los valores que adquieren en el tiempo algunas señales
meteorológicas se ejecutó utilizando una serie de sensores electrónicos conectados a
un sistema de adquisición de datos, implementado con microcontroladores de la
empresa Microchip, los cuales se encargan de procesar y enviar los datos capturados
por los sensores climatológicos hacia un computador de forma inalámbrica, donde se
cuenta con una interfaz gráfica la cual presenta los datos a los usuarios en tiempo
real, y tiene la capacidad de almacenar dichos valores con el apoyo de la creación de
una base de datos designada para la recopilación de datos.
Para el sostenimiento energético de la estación, se desarrolló una fuente de
alimentación fotovoltaica capaz de alimentar los circuitos durante 4 horas en ausencia
de la energía solar (Fernando A. Montealegre L. Profesor asociado. Universidad
Nacional - Sede Palmira, 2015).
La aplicación desarrollada para el monitoreo de las variables meteorológicas cuenta
con un servidor y un aplicativo web. Este sistema fue desarrollado por profesores y
alumnos con énfasis en electrónica, es una alternativa tecnológica de bajo costo y
que se puede replicar bajo la figura de red a mediano plazo, para la accesibilidad de
datos sensados. (La prevención del ruido en la empresa, 1999).
Resultados y Conclusiones
Como base del proyecto se desarrolló un conjunto de prototipos (Fig. 1) los cuales
permiten registrar y visualizar en una interfaz web (Fig. 2) los datos adquiridos de
temperatura, monóxido y metano de forma remota.
Figura 1. Prototipo Nodo Metano. La imagen fue elaborada por los autores.
92
Figura 2. Interfaz Web. La imagen fue elaborada por los autores.
Se espera unificar las mediciones de las distintas variables en una central autónoma
(Fig. 3) y que estos datos sean transmitidos a través de un módulo GPRS hacia un
servidor web.
Figura 3. Central Autónoma. La imagen fue elaborada por los autores.
Referencias
Diz J., García J. F., Darriba J., Rodríguez S. (2006). solaina. Obtenido de FORMACIÓN PROFESIONAL
ELECTRÓNICA Y ENERGÍAS RENOVABLES:
http://solaina.es/drupal/files/233_11_CIES2008_cas_cor.pdf
educalab. (2015). Obtenido de recursostic.
Energiasolarfotovoltaic. (2015). Obtenido de blogspot:
http://energiasolarfotovoltaica.blogspot.com/2006/01/la-bateria_29.html
Montealegre L., Fernando (2015). Universidad Nacional de Colombia. Obtenido de sede Palmira:
http://www.virtual.unal.edu.co/cursos/sedes/palmira/5000134/contenido/cap3/lec1.htm
Francisco, J. L. (2008). Universidad Politecnica de Catalunya. Obtenido de
https://upcommons.upc.edu/pfc/bitstream/2099.1/6137/1/memoria.pdf
infoAgro. (2015). Obtenido de
http://www.infoagro.com/instrumentos_medida/doc_anemometro_velocidad_viento.asp?k=
80
La prevención del ruido en la empresa. (1999). En P. M. Floría, 2.SONOMETRO (pág. 163). Fundación
Confemetal.
ernández, Luis (2015). cubasola . Obtenido de Facultad de Física-IMRE. Universidad de La Habana:
http://www.cubasolar.cu/biblioteca/Energia/Energia38/HTML/articulo02.htm
93
Mejia, C. A. (2013). Instituto Politécnico Nacional. Obtenido de Escuela Superior de Ingeniería
Mecánica y Eléctrica:
http://itzamna.bnct.ipn.mx/dspace/bitstream/123456789/12211/1/sistemautomatico.pdf
México, E.-t. d. (2015). Esco-tel . Obtenido de http://www.esco-tel.com/paneles_solares.html
Osés, F. X. (2006). 9.2 La medida de la presion. El barometro. En F. X. Osés, Meteorología aplicada a
la navegación (págs. 102-103). Catalunya: Ediciones UPC.
SunFields, E. (2015). SunFields. Obtenido de http://www.sfe-solar.com/%C2%BFque-es-un-sistema-
fotovoltaico-autonomo-de-que-consta-y-como-se-dimensiona-1685/
Universidad Politecnica de Madrid, Politécnica, FECYT. (15 de Abril de 2015). ingeniatic. Obtenido de
http://ingeniatic.euitt.upm.es/index.php/tecnologias/item/588-sensores-de-temperatura-
rtd
94
Diseño e implementación de una
aplicación de visión artificial para el
conteo de vehículos de transporte
público (taxis) presentes en una
intersección de la ciudad de Medellín
Daniela Giraldo Jiménez 16[autor]
Simón Calderón Ramírez 16[autor]
Sebastián Felipe Pinzón Orozco 16[autor]
Camilo Andrés Flórez Velásquez 16[autor]
Resumen
Las últimas investigaciones en el desarrollo de aplicaciones de Visión Artificial para el conteo
de objetos de interés presentes en una imagen, se fundamentan en el empleo de algoritmos de
inteligencia artificial para la detección de conectividad entre imágenes, usando por ejemplo
redes Neuronales (Maldonado, 2006), o algoritmos de segmentación sofisticados como la
segmentación por Morfología Matemática y substracción de las escenas a partir de un marco
de referencia – Diferenciación de Frames – Flujo Óptico – Sensado Tridimensional y Modelaje
Estadístico (Leal & Branch, 2010).
En particular en Colombia se han desarrollado algunos prototipos de programas de visión
artificial para el diseño e implementación de Sistemas de Monitoreo de Tránsito Vehicular
(SMTV), con el objetivo de medir y controlar de forma automática el flujo vehicular. Hasta la
fecha el área de investigación en SMTV está en continua evolución en la medida que se cuentan
cada vez con computadores más poderosos, capacitados para soportar la ejecución de
algoritmos cada vez más robustos e inteligentes de procesamiento digital de señales (Leal &
Branch, 2010).
Los elementos presentados han motivado el proyecto presentado, donde se procederá a
diseñar una aplicación para contar objetos o características presentes en una imagen, a partir
del uso de algoritmos de segmentación por características morfológicas y detección de
conectividad entre objetos, con la finalidad de verificar el grado de éxito del algoritmo en la
medición automática de la cantidad de vehículos de transporte público (inicialmente taxis
presentes en una intersección de la ciudad de Medellín), y así desarrollar un prototipo
funcional de una aplicación de SMTV.
16 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Procesamiento Digital de Señales – Ingeniería de
Telecomunicaciones, Universidad Santo Tomás, Medellín. Correo electrónico: [email protected]
95
El algoritmo inicialmente diseñado fue puesto bajo prueba bajo condiciones de luz
controlada, sobre imágenes que contiene objetos poligonales con la misma forma y color,
sobre un fondo homogéneo. El algoritmo de conectividad implementado fue el Recursivo con
Vecindades 4 – píxeles, aplicado a una imagen en formato .bmp capturada por una webcam
previamente umbralizada y binarizada.
Los resultados obtenidos ilustran que existe un alto porcentaje de éxito en la medición en la
cantidad de patrones, enseñando que la técnica propuesta tiene un gran potencial para su
aplicación en la medición de conteo de objetos, en particular en el sector del transporte
público donde se desea evaluar el número de vehículos de transporte público presente en una
intersección de la ciudad.
Introducción
La Alcaldía de Medellín cuenta con un Sistema Inteligente de Movilidad que emplea
entre otras componentes una red de cámaras de video CCTV, que monitorean
continuamente las principales vías de la ciudad desde el Centro de Control del
Transito con la finalidad de detectar incidentes que afecten la movilidad (Secretaría de
Movilidad de Medellín, 2015). Esta red de cámaras es controlada por personal humano
capacitado que se encarga de medir continuamente todos los eventos que puedan
ocurrir a nivel de flujo vehicular y accidentalidad. Estas cámaras no cuentan con la
capacidad de ejecutar mediciones de interés para el diseño de los planes de movilidad
de la ciudad, como por ejemplo medir el número del parque automotor o el flujo del
mismo (parque automotor por unidad de tiempo), ya que no poseen elementos de
visión artificial que los capaciten para la tarea mencionada.
Desde esta perspectiva, el Semillero de Investigación en Procesamiento Digital de
Señales – Ingeniería de Telecomunicaciones propone una investigación de corte
cuantitativo, en la cual se diseñará e implementará una solución fundamentada en
algoritmos de visión artificial que sea potencialmente útil para la medida del número
de automóviles presentes en una intersección cuando estos se encuentran detenidos
por el pare de un semáforo; con la finalidad de apoyar el desarrollo de aplicaciones de
alto impacto para la ciudad de Medellín en el área de SMTV, o para el sector privado
que requiere de este tipo de soluciones para el control de su parque automotor.
Marco Teórico y Estado del Arte
Los algoritmos de conectividad, pertenecientes al área de visión artificial, están
dedicados a separar las imágenes de interés del fondo de la imagen, y se pueden
emplear para el conteo de imágenes, tal como lo documentan (Neira, 2010) y
(Trespaderne, 2012). Estos algoritmos se fundamentan en el concepto de Vecindad N
96
- Píxel (Vecindad 4, Vecindad 6 y 8), que sirven para establecer la conectividad o la
posibilidad de establecer una trayectoria continua entre dos puntos A y B
perteneciente a una imagen. Se propone inicialmente aplicar el algoritmo de
conectividad para detectar y contar imágenes disjuntas binarias de color blanco, que
están sobre un fondo de color negro. Para tal fin se usará un algoritmo recursivo
usando una vecindad 4 – píxel. El algoritmo mencionado se modificará para generar
etiquetas de enumeración a imágenes que están interconectadas, y finalmente se
contarán cuantas etiquetas distintas ha generado el algoritmo a diseñar, que debe ser
igual al número de objetos distintos sobre la imagen. El algoritmo de conectividad es
bastante sensible al ruido de “salpicadura de sal” (píxeles con valores totalmente
diferente al de sus vecinos) (Neira, 2010), lo cual implica que es importante usar un
filtro de promediación como por ejemplo un filtro de Gauss, para uniformizar el valor
de los píxeles en escalas de grises, y así atenuar el ruido presente en la imagen que
puede provocar conteos falsos.
Para aplicar el algoritmo para el conteo de objetos de interés de una imagen, es
importante previamente aplicar un algoritmo de segmentación por características
morfológicas, como por ejemplo forma – color – textura, fundamentadas en las
técnicas de detección de bordes como las técnicas de Canny y Sobel o el empleo de la
transformada de Hough para la detección de rectas (Platero, 2005), o el uso de
técnicas de segmentación por umbralización de colores (Manzanares, 2011).
Metodología Empleada
El tipo de investigación propuesta es de corte cuantitativo y el método planteado
para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo-
deductivo”.
La metodología propuesta para el desarrollo del proyecto de investigación es la
siguiente:
A partir del uso de una imagen con objetos (polígonos) con formas de geometría
regular y colores homogéneos, tomada bajo condiciones de luz controlada, se
procederá a filtrar la imagen con un filtro Gaussiano con la finalidad de atenuar el
ruido de “salpicadura de sal”, y luego se convertirá la imagen a escala de grises. La
imagen convertida a escala de grises se segmentará inicialmente por la técnica de
umbralización, para convertirla en una imagen binaria (fondo con píxeles iguales a
cero, y objetos de interés con píxeles iguales a uno).
La imagen binarizada será sometida al algoritmo de conteo diseñado por el grupo
de investigación, para etiquetar cada objeto presente en la fotografía, para
posteriormente proceder a contar las etiquetas generadas cuyo resultado es
consistente con el número de objetos.
97
El algoritmo diseñado se probará con múltiples imágenes con objetos geométricos
capturadas bajo condiciones de luz controlada, contaminadas o no con ruido, con la
finalidad de medir el número de casos exitosos (conteos exactos); con la finalidad de
detectar y corregir las fallas de los algoritmos de segmentación y conectividad
empleados.
A partir de las correcciones de los algoritmos se iniciará con el proceso de capturas
de imágenes de vehículos de transporte público a una altura de aproximadamente
entre 8 a 10 metros sobre el nivel del suelo, bajo diversas condiciones de luz, para
luego aplicar el algoritmo de conteo diseñado. Las mediciones que se tomarán será el
número de vehículos presentes durante el experimento contra el número de vehículos
estimado por el algoritmo diseñado, bajo diversas condiciones de luz; para verificar el
número de casos exitosos de conteo contra las condiciones de iluminación.
Por último se plantea ejecutar correcciones de naturaleza algorítmica u ópticas al
sistema de medición (Cámara digital), para evitar los conteos anómalos provocados
por las condiciones de luminosidad de la escena.
Resultados y Conclusiones
A la fecha se ha diseñado un programa de conteo fundamentado en el algoritmo de
conteo de imágenes por etiquetado de píxeles aplicado inicialmente sobre imágenes
binarizadas (de color blanco) sobre un fondo negro; capaz de enumerar objetos con
diversas formas geométricas segmentadas previamente usando un algoritmo de
detección de bordes, y aplicando una técnica de segmentación de color por
umbralización.
Las técnicas empleadas de segmentación y conteo de imágenes han mostrado ser
eficaces en el proceso de enumeración de imágenes, pero aún se presentan algunas
dificultades en el proceso de segmentación debido a la confusión existente entre las
fronteras de 2 o más imágenes diferentes, lo que provoca que el algoritmo las cuente
como (1) sola imagen.
Se propone mejorar el algoritmo de segmentación, usando la propiedad de forma y
color de los objetos presentes en las imágenes, usando por ejemplo la transformación
de Rough que sirve para detectar rectas y círculos.
Referencias
Leal, Nallig; Leal Esmeide, Branch, John W. (2010). Sistema de Monitoreo de Tránsito Vehicular
Basados en técnicas de segmentación de imágenes. Revista Avances en Sistema e
Informática, Vol. 7 Número 3. Medellín , Colombia. ISSN 1657 – 7663
98
Maldonado, Chan Mauro (2006). Sistema automático de conteo y clasificación de flujo vehicular
basado en secuencias de video y redes neuronales artificiales. Universidad Autónoma de
Nuevo León. México.
Larcher, Ledda I., Biasoni, Enrique M.; Cattaneo, Carlos A.; Ruggeri, Ana I.; Herera, Cecilia (2011).
Algoritmo para detección de bordes y ulterior determinación de objetos en imágenes
digitales. Asociación Argentina de Mecánica Computacional, Mecánica Computacional Vol.
XXX, pag 2841 - 2852. Rosario, Argentina.
Neira Parra, José. Curso de Visión por computador. Universidad de Zaragoza, tomado de la página
web
http://webdiis.unizar.es/~neira/12082/12082conectividad.pdf
De la Fuente, Eusebio; Trespaderne, Felix Miguel (2012). Visión Artificial Industrial: Procesamiento
de imágenes para inspección automática y robótica. Universidad de Valladolid. ISBN 978-
84-8448-730-2.
Platero, Carlos (2005). Apuntes de Visión Artificial. Escuela Universitaria de Ingeniería Técnica
Industrial. Tomado del sitio web
http://www.elai.upm.es/webantigua/spain/Asignaturas/Robotica/InfoRobotica.htm
Carcedo y Franco, Ana (2004). Tesis: Programa de Segmentación de regiones en imágenes médicas
en Matlab. Universidad de las Américas de Puebla.
Cuevas Jiménez, Erik Valdemar; Zaldivar Navarro, Daniel; Pérez, Marco. Procesamiento Digital de
Imágenes con Matlab y Simulink.
Editorial Alfaomega & Ra - Ma. ISBN 978-607-707-030-6
De Giusti, Marisa R.; Vila, María Marta; Luján Villareal, Gonzalo (2005). Digitalización de documentos
manuscritos para la preservación del patrimonio cultural. III Simposio Internacional de
Bibliotecas Digitales (San Pablo, Brasil).
Gómez Rodríguez, Francisco; Domínguez Morales, Manuel J. Fundamentos de la visión artificial.
Departamento de Arquitectura y Tecnología de Computadores, Universidad de Sevilla.
Tomado del sitio web http://rodas.us.es/file/26a3632e-7124-4e72-b045-
d9ae3edd3938/1/Fundamentos%20de%20la%20Vision%20Artifical.pdf
Moreira Quiroz, José; Valencia Delgado, Vladimir; Chávez Burbano, Patricia (2009). Implementación
de un algoritmo para la detección y conteo de células en imágenes microscópicas. Red de
repositorios de acceso abierto de Ecuador. Tomado del sitio web
http://www.dspace.espol.edu.ec/handle/123456789/16146.
Luzardo M, Gonzalo (2009). Segmentación de imágenes basado en etiquetación de pixeles. Escuela
Superior Politécnica del Litoral, Ecuador. Tomado del sitio web
http://blog.espol.edu.ec/gluzardo/files/2009/04/merge_labeling.pdf
Ramírez- Manzanares, Alonso (2011). Reporte de búsqueda, detección y conteo de objetos. Tomado
del sitio web http://www.cimat.mx/~alram/VC/ramirez_segmObjDetecc.pdf
99
Aplicación de un algoritmo de
correlación cruzada 2-D para la
identificación de placas vehiculares
de automotores de servicio público
Simón Calderón Ramírez 17[autor]
Boris David Gómez Guerrero 17[autor]
Jorge Luís Mejía Ortiz 17[autor]
Camilo Andrés Flórez Velásquez 17[autor]
Resumen
Las recientes investigaciones en el desarrollo de aplicaciones para la búsqueda de patrones
en imágenes, se fundamentan en el empleo de algoritmos de inteligencia artificial como redes
Neuronales (Ghorpade, 2010; Chauhan, 2012; Oquab, 2013), algoritmos genéticos (Ali Abed,
2010); y combinaciones de redes neuronales con lógica difusa (Nagalakshmi, 2013). En
particular en Colombia se han desarrollado programas de visión artificial para la identificación
de placas vehiculares empleando redes neuronales como por ejemplo (González, 2008).
Debido a la robustez de estos algoritmos, se requieren de computadores con altos grados de
paralelismo, que normalmente no están disponibles en nuestra región. La dificultad planteada
se puede resolver retornando a algoritmos clásicos para la identificación de patrones de baja
complejidad, como la Correlación Cruzada de 2 dimensiones entre imágenes (Ahuja, 2013;
Kadam, 2014), que ha sido probado con buen grado de éxito en la identificación de las placas
de vehículos, como se documenta en (Delgado, 2010).
Los elementos presentados han motivado el proyecto presentado, donde se ilustra la
aplicación de un algoritmo de correlación cruzada en dos dimensiones entre una imagen que
contiene un carácter alfanumérico patrón, y otra que contiene la cadena de caracteres de una
placa de un vehículo público de la ciudad de Medellín, con la finalidad de verificar el grado de
éxito del algoritmo en la detección correcta de patrones. El experimento fue ejecutado bajo
condiciones de luz controlada, y la imagen que contiene el caracter patrón tiene las mismas
dimensiones en píxeles a la presente en la placa. El algoritmo implementado es el de
desplazamiento matricial (Kadam, 2014) aplicado entre 2 imágenes en formato .bmp
previamente umbralizadas y segmentadas por colores. Los resultados obtenidos ilustran que
existe un moderado porcentaje de éxito en la detección de patrones, enseñando que la técnica
propuesta es adecuada para la identificación de placas vehiculares.
17 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Procesamiento Digital de Señales – Ingeniería de
Telecomunicaciones, Universidad Santo Tomás, Medellín. Correo electrónico: [email protected]
100
Introducción
La técnicas de reconocimiento de patrones en imágenes digitales se pueden
emplear en diversas aplicaciones que requieren de la búsqueda automática e
inteligente de características morfológicas, como por ejemplo en la identificación y
diagnóstico de tumores u otros tejidos en medicina y biología, en la medida de la
forma y textura de minerales en procesos de exploración de hidrocarburos y
metalúrgica, en el reconocimiento de rostros humanos en aplicaciones de seguridad
ciudadana, en el control de espacios e identificación de placas en vehículos de
transporte. La última aplicación mencionada, es de vital importancia para la Secretaría
de Transporte del Valle de Aburrá, que cuenta actualmente con un sistema de visión
computacional controlado remotamente por personal calificado, que se encarga de
monitorear algunas vías de la ciudad, con la finalidad de reducir los niveles de
accidentalidad provocados en algunos casos por la violación de normas de
conducción estipuladas por la ley. A la fecha dicho sistema cuenta con una aplicación
que está en la capacidad de medir la velocidad de los vehículos, pero no cuenta con
un algoritmo que permita identificar de forma automática la placa de los vehículos,
que eventualmente se pueda cruzar con la base de datos de la Secretaría de
Transporte.
El algoritmo para la identificación de caracteres de una placa vehicular, debe ser
simple y liviano para ser instalado o agregado de forma exitosa, sin mayor costo
computacional, en una aplicación de software de visión por computador ya existente,
o para ser implementado en una FPGA. Un algoritmo clásico simple para el
reconocimiento de imágenes con baja complejidad algorítmica, es el de la correlación
cruzada dos – dimensional (2 – D), que ha sido probado con cierto grado de éxito en
un buen número de aplicaciones, que presenta como ventaja su simpleza algorítmica,
pero como defecto la detección falsa de patrones por efectos de la sensibilidad al
ruido y de las transformaciones de rotación de la imagen.
Marco Teórico y Estado del Arte
La correlación cruzada entre la imagen patrón H, llamada Kernel, y la imagen de
prueba A se calcula según Mathworks (2014), con la siguiente expresión:
1
0
1
0
),(),(,N
j
M
i
jyixHjiAlkHAI (1)
M y N son las dimensiones en píxeles de la matriz de intensidad de la imagen A.
P y Q son las dimensiones en píxeles de la matriz de intensidad de la imagen H.
101
lk, son las coordenadas de la matriz I de correlación cruzada.
lk, se evalúan en los siguientes intervalos:
1)1( MkP y 1)1( NlQ (2)
La correlación cruzada entre dos imágenes produce como resultado otra imagen
I(k,l), donde k y l son las coordenadas desplazadas en píxeles de la matriz I, y el valor
almacenado en la posición (k,l) de dicha matriz indica el valor de la correlación
cruzada.
Un valor elevado de la correlación cruzada en un píxel (k,l) indica que es muy
probable que el píxel con coordenadas desplazadas (k,l) de la imagen bajo prueba
tenga las mismas características morfológicas del píxel con coordenadas desplazadas
(k,l) de la imagen patrón.
Metodología Empleada
El tipo de investigación propuesta es de corte cuantitativo y el método planteado
para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo-
deductivo”.
La metodología propuesta para el desarrollo del proyecto de investigación es la
siguiente:
Para medir el grado de éxito de la técnica de la Correlación aplicada en la detección
de caracteres numéricos en una placa de un Taxi, se diseñó y se puso en marcha un
experimento donde a partir de la captura mediante una cámara digital de una (1)
imagen de una placa vehicular bajo condiciones de luz controlada, y su posterior
segmentación por colores usando la técnica de umbralización por histograma () con el
fin de extraer los caracteres, se procedió a aplicar un algoritmo de Correlación
Cruzada implementado por el grupo de investigación en Matlab, para estimar la
correlación de la imagen capturada de la placa contra una base de 9 imágenes
patrones compuesta por los caracteres numéricos del 0 al 9 debidamente
segmentados por colores, con la condición que los caracteres en cuestión tuviesen las
mismas dimensiones en píxeles que los números presentes en la placa.
Resultados y Conclusiones
A la fecha se han ejecutado una serie de experimentos donde se muestra las
gráficas de las correlaciones cruzadas entre una imagen patrón ( caracteres
alfanuméricos del 0 -9 y algunas consonantes) y la imagen de una placa de transporte
público bajo condiciones de luz controlada, donde se evidencia la detección correcta
102
de los caracteres patrón en la imagen bajo análisis, pero también la aparición de
“detecciones erróneas” (El algoritmo de Correlación indica la existencia de un caracter
que no existe en la imagen de la placa), provocada por la inadecuada segmentación
de la imagen que contiene a la placa, y por la sensibilidad de la correlación cruzada a
las condiciones de luz y a la similitud morfológica de algunos caracteres (algunas
letras se confunden con otras, debido a la similitud de la forma de sus trazos).
Aunque la técnica de Correlación Cruzada 2-D detecta “Falsos Positivos”
(Detecciones erróneas de caracteres), es notable el grado de éxito en la detección de
patrones bajo condiciones de luz controlada. Se sugiere mejorar la segmentación de
la placa del vehículo, para extraer de una forma más cuidadosa los caracteres a
analizar, con la finalidad de maximizar el número de casos exitosos de detección de
patrones empleando la técnica de Correlación.
Referencias
Mathworks. (2014). Documentation of Signal Processing Toolbox: 2 - D Cross - Correlation.
Recuperado del sitio web: http://www.mathworks.com/help/signal/ref/xcorr2.html
Ghorpade, Santaji et al (2010). Pattern Recognition using neuronal networks. International Journal Of
Computer Sciencie & Information Technology (IJCSIT), vol 2, no. 6, december 2010.
Chauhan,S., et al (2012). Pattern recognition system using MILP Neuronal Networks. IOSR Journal Of
Engineering, May 2012, vol 2(5).
Oquab,M. et al (2013). Learning and trasferring Mid Level Image representations using convolutional
neuronal networks. HAl Archives - outvertes.fr, 2013.
Ali Abed,et al (2010). Pattern recognition using genetic algorithm. International Journal of Computer
and Electrical Engineering, vol. 2, no.3, june 2010.
Nagalakshmi,G.; Jyothi, S.(2013). A survey on pattern recognition using fuzzy clustering approaches.
International Refereed Journal Of Engineering and Science (IRJES), volume 2, issue 5, may
2013.
González, J. et al. (2008). Tesis: Desarrollo de un sistema de visión artificial para el reconocimiento
de placas en vehículos particulares. Programa de Ingeniería Mecatrónica, Universidad San
Buenaventura, Bogotá, diciembre de 2008.
Ahuja, K.; Tuli, P. (2013). Object Recognition by template matching using correlations and phase
anlge method. International Journal Of Advanced Research in Computer and Communication
Engineering. Vol 2, Issue 3, march 2013.
Kadam, R.U., et al (2014). Object detection using correlation technique. Journal of Emerging
Technologies and Innovative Research (JETIR), vol. 1, issue 5, 2014.
Delgado, J.L. (2010). Tesis: Reconocimiento de placas vehiculares". Escuela Superior de Ingenieria
Mecanica y Electrica. Sección de estudios de posgrado e investigación, Unidad Culhuacan.
México, diciembre de 2010.
Han, Y., et al (2012). Application of digital image cross - correlation and smoothing function to the
diagnosis of breast cancer. Journal of the mechanical behavior of biomedical materials I4,
2012.
103
Diseño e implementación de un
sistema de visión artificial
estereoscópica para navegación
robótica
Ana María Zapata Herrera 18[autor]
Juan Esteban Silva Narváez 18[autor]
Camilo Andrés Flórez Velásquez 18[autor]
Resumen
La visión artificial es ampliamente utilizada a nivel mundial en aplicaciones donde se
requiere la información del mundo 3D para la toma de decisiones: en medicina, búsqueda de
objetivos militares, aplicaciones de rescate en desastres y en particular en la resolución de
problemas asociados a la navegación robótica. Para implementar estas aplicaciones, se
emplean cámaras para capturar la información del mundo tridimensional en dos dimensiones,
y a partir de algoritmos de procesamiento de imágenes y de inteligencia artificial proceder a
reconstruir el medio donde el agente robótico navegará. Existen diversas técnicas que permiten
reconstruir la información 3D, dentro de las cuales se destaca, la visión estereoscópica por su
alta precisión en la medición de las coordenadas de puntos 3D.
El Gobierno de la República de Colombia no es ajeno a estos desarrollos tecnológicos, y a
través de su entidad reguladora de la Investigación Científica, Colciencias, propone en su Plan
Estratégico ETI 2013, las áreas más importantes para el avance de la industria Colombiana,
entre las cuales se encuentran la robótica aplicada; en particular su aplicación en el sector de
control de transporte; donde encaja perfectamente el desarrollo de sistemas de visión artificial
para el control y automatismo de la navegación planificada o reactiva de plataformas robóticas
móviles.
Por lo tanto se propone desarrollar un sistema de reconstrucción de entornos 3D usando
técnicas de visión artificial cimentadas en sistemas de cámaras estereoscópicas, para su
futuro uso en el control de navegación de vehículos a gasolina o eléctricos bajo condiciones
experimentales.
18 Programa de Ingeniería Electrónica, Semillero de Investigación SIRMO, Universidad de San Buenaventura, Medellín. Correo
electrónico: [email protected]
104
Introducción
La reconstrucción de entornos tridimensionales a partir del uso de técnicas de
visión artificial, es ampliamente empleada para la obtención exacta de las formas de
los objetos presentes en el mundo real, para posteriormente construir modelos
geométricos computacionales que los representen; que sirvan para apoyar el proceso
de toma de decisiones en aplicaciones industriales y de ingeniería, como por ejemplo
en la medicina, la explotación metalúrgica, la navegación de agentes robóticos entre
otros.
Los algoritmos existentes para la reconstrucción de entornos tridimensionales se
fundamentan en diversas técnicas de visión artificial enfocadas en la obtención de las
coordenadas 3D de los puntos que hacen parte del entorno, como por ejemplo la
Telemetría Láser, control de parámetros ópticos, visión estereoscópica, entre otras;
sobresaliendo las técnicas de estereoscopía por su alta precisión en la medición de
coordenadas de puntos 3D, a partir del uso de modelos físico – matemáticos que
representan de forma aproximada la óptica geométrica de una cámara digital, como
los expuestos por Tsai (1987), Zhang (1998) y Brown (1972).
En Colombia, existen pocos proyectos de grado orientados al desarrollo de
aplicaciones de visión artificial estereoscópica aplicadas a la navegación de agentes
robóticos móviles: (Suárez, 2011) implementó un sistema de visión estereoscópica
para agentes robóticos con un radio de alcance de 2.4 [metros] y una precisión en la
medición de la posición de hasta 5 [cm] aproximadamente, (Jaramillo, 2010) diseñó
un algoritmo computacional que a partir de la información 3 – D recolectada por un
sistema de visión artificial estereoscópico, reconstruye de forma exitosa un entorno
bajo condiciones de control.
A partir del marco referencial expuesto se propone en el proyecto, desarrollar un
sistema de reconstrucción de entornos tridimensionales usando la Técnica de Visión
Estereoscópica, para su futuro uso en el control de navegación de vehículos a gasolina
o eléctricos bajo condiciones experimentales.
Marco Teórico y Estado del Arte
La visión artificial tiene como objetivo principal conseguir que una computadora
pueda analizar una escena del mundo real como lo haría una persona; para llevar a
cabo esta tarea es necesario crear un modelo 3D de dicha escena con dos cámaras,
que obtienen dos imágenes desde dos puntos de vista diferentes (visión
estereoscópica), esto permite capturar la información del mundo de una forma
tridimensional, como lo haría el ojo humano; es por esto que la visión artificial es
ampliamente utilizada a nivel mundial en diferentes áreas que necesitan la
105
información del mundo 3D para la toma de decisiones, como lo son la medicina, el
área militar, el civil y en particular en la resolución de problemas asociados a la
navegación robótica.
La visión artificial se emplea especialmente para la resolución de problemáticas
asociadas a la navegación de agentes robóticos, en particular en la reconstrucción de
entornos 3D para la planificación de navegación en ambiente controlados o no
controlados.
A nivel mundial, varios autores han desarrollado diferentes técnicas que permiten
la reconstrucción de entornos 3D, algunas de las cuales se mencionan a continuación:
Vilá Ubieto (2009), propone la reconstrucción de objetos sencillos, a partir de
imágenes adquiridas desde dos cámaras puestas en forma paralela; para realizar
dicha tarea, realizó un algoritmo en Matlab. Sin embargo, este algoritmo sólo
funcionaba de manera adecuada con objetos que tuvieran geometría recta. El sistema
no está capacitado para la reconstrucción de objetos con puntas redondeadas.
Carabias et al (2010), proponen desarrollar una aplicación que obtenga la
representación 3D del medio en el cual navega el agente robótico autónomo, a partir
de dos imágenes tomadas por diferentes cámaras, y a partir de la información
recolectada por estas, planificar la ruta del mismo. El algoritmo implementado por
Carabias, presentó algunos errores, pues al momento de reconstruir la imagen, está
se encontraba un poco desplazada respecto a la original, claro está que los resultados
obtenidos son suficientes para reconocer la existencia o no de obstáculos y a partir de
esta información planificar la navegación del agente robótico.
Suárez y Loaiza (2011) implementaron un sistema de estereovisión de bajo costo
para ser empleado en agentes robóticos móviles, que permite estimar la distancia a la
cual se encuentran los objetos presentes en el campo de visión del agente. Ellos
lograron desarrollar un sistema de visión que permitía la navegación de un robot
móvil autónomo en un ambiente estructurado desconocido con un error al momento
de realizar la medición de 5.04 cm, y con un campo de acción entre 60 cm y 240 cm.
En la Universidad Politécnica de Madrid, los ingenieros Jiménez y Naranjo (2012)
han desarrollado un prototipo de laboratorio de un dispositivo universal, que puede
controlar la dirección de un automóvil en carretera sin intervención del conductor,
también un grupo de ingenieros del MIT ha estado trabajando en el desarrollo de un
sistema que actúa como copiloto y podría tomar el control del automóvil, solo con la
finalidad de evitar accidentes.
En Colombia existen los siguientes trabajos asociados a la reconstrucción de
entornos 2D y 3D para la navegación de agentes robóticos:
Correa Niño et al (2010), proponen un agente robótico para servicios cooperativos,
con un sistema de sensores muy básicos compuesto por un medidor óptico de cortas
distancias (0-1m) usando el sensor GP2D12 y una cámara digital que solo se emplea
106
para reconocer colores de objetos. El sistema no está capacitado para la
reconstrucción de entornos 3D.
Díaz Celis y Romero (2011), proponen un sistema de visión artificial implementado
con una cámara Kinect de Microsoft, que sirve para obtener la profundidad en metros
de cada punto de un objeto en 3D (cámara de rango), en un intervalo entre 0.8 m y
3.5 m, usando triangulación con luz infrarroja. La información obtenida (profundidad)
se emplea para planificar la navegación del robot. Los resultados obtenidos
evidencian que este tipo de sensores no son altamente precisos a la hora de medir
distancias (profundidad).
Ballester y Phectectt (2011), proponen el uso experimental de un sensor Kinect de
Microsoft, para la medición de distancias. Este sensor está compuesto por un sistema
de iluminación infrarrojo y un arreglo de sensores electrópticos CMOS, que triangulan
la posición 3D de los objetos en un rango de 0.8 m y 3.5 m. El sensor tiene
limitaciones respecto a la resolución esperada y no está orientada a tareas de
reconstrucción.
Aristizábal y Restrepo (2013), implementaron un prototipo para la medición de la
velocidad de un automóvil con cámara de video, usando técnicas de triangulación y
medición de tiempos entre frames consecutivos. La propuesta no resuelve el
problema de la reconstrucción del entorno 3D para la medición de variables
cinemáticas.
El modelo de formación de rayos de Pin – Hole, propone que todo rayo luminoso
proveniente de un punto P del objeto en tres dimensiones, pasa por el centro de la
lente, y forma el punto P’ de dos dimensiones en el plano de la imagen con
coordenadas '1'
1
'
1 ,, ZYX , cuyo centro de coordenadas de referencia se encuentra a
una distancia focal 0f del centro de la lente medido con su sistema de referencia
cartesiano 111 ,, ZYX . La expresión que sirve para calcular las coordenadas en
metros donde se forma el punto P’ de 2 dimensiones en el plano de formación de la
imagen, es ilustrada en la expresión (1):
z
x
y
f
z
x
'
'
(1)
Las coordenadas de los puntos 2 – dimensionales que conforman a la imagen
formada en el plano de la cámara, deben ser medidas en píxeles que son las unidades
adecuadas para implementar el algoritmo de visión artificial que sirve para reconstruir
el entorno 3 – D, y para tal fin es necesario plantear las siguientes expresiones de
escalamiento:
107
Pixelesvz
ux
v
u
C
C
P
P
'
'
(2)
PP vu , Son las coordenadas del punto del objeto 3 – D proyectado en el plano de
formación de la imagen de la cámara medidos en Pixeles , , en
metro
pixel son
los factores de escalamiento longitudinales de la cámara de video, y CC vu , son las
coordenadas del centro del plano de formación de la imagen, medido desde el
sistema de referencia.
Calibración de la Cámara de Video.
Tsai (1987), Faugeras (1993) y Zhang (2000), han propuesto modelos alternativos
que relacionan las coordenadas PP vu , con las coordenadas del punto P medido
respecto al sistema cartesiano de la lente de la cámara, que tienen presente las
posibles operaciones de rotación – traslación y los parámetros que tienen en cuenta
las anomalías geométricas que pueden alterar los rayos de la lente (distorsión radial
de la lente) y la proyección de la imagen sobre el sensor fotoeléctrico de la cámara de
video. Todos estos modelos se fundamentan en el empleo de una matriz de
calibración. Las coordenadas del plano de formación de la imagen en píxeles, PP vu , ,
se pueden calcular en términos de las coordenadas de un punto P MMM zyx ,, del
objeto tridimensional medido respecto al sistema cartesiano del mundo, usando la
siguiente expresión:
134333231
24232221
14131211
M
M
M
H
PH
PH
z
y
x
CCCC
CCCC
CCCC
t
v
u
(3)
Donde la matriz
34333231
24232221
14131211
CCCC
CCCC
CCCC
C (Matriz de calibración)
Representa las posibles operaciones de rotación – traslación y las leyes geométricas
que dependen de los parámetros de la cámara de video a emplear en el proceso de
medición.
108
El vector:
H
PH
PH
t
v
u
Recibe el nombre de “vector de coordenadas homogéneas” del punto P’ presente en
el plano de formación de la imagen de la cámara, que sirven para calcular las
coordenadas PP vu , usando las siguientes expresiones:
H
PHP
t
uu ,
H
PHP
t
vv (4).
Para estimar el valor de la matriz C que modela el comportamiento óptico –
geométrico de la cámara, es necesario ejecutar una serie de experimentos
debidamente documentados por Tsai (1987), Faugeras (1993) y Zhang (2000), que
consisten esencialmente en capturar con la cámara algunos puntos KPPPP ,...,,, 321
del objeto tridimensional con coordenadas previamente conocidas por el usuario; y
luego medir en el computador la posición de las proyecciones de estos puntos sobre
el plano de formación de la imagen, ''
3
'
2
'
1 ,...,,, KPPPP . Esta información se emplea para
estimar los términos 34131211 ,,,, CCCC a partir de la aplicación de métodos
numéricos para la resolución de sistemas de ecuaciones lineales o no lineales, como
ilustra Ricolfe (2006).
Estimación de las coordenadas 3 – D de los puntos medidos con el sistema de visión
artificial estereoscópica.
Con una sola ecuación de mapeo “3- D” a “2 – D” de una (1) cámara, es imposible
reconstruir la información tridimensional de un objeto a partir de las coordenadas
bidimensionales presentes en la imagen capturada, para tal fin es necesario tener por
los menos dos (2) cámaras con sus respectivas ecuaciones de mapeo, para así estimar
las coordenadas tridimensionales del objeto bajo estudio. Sumando las ecuaciones de
mapeo de ambas cámaras, se obtiene el siguiente sistema de ecuaciones que sirven
para estimar las coordenadas 3 – D de un punto P , a partir de las coordenadas en
píxeles de la proyección de dicho punto sobre los planos de imágenes de las cámaras:
111
)2(
)2(
2)1(
)1(
1
2
34
1
34
2
33
1
33
2
32
1
32
2
31
1
31
2
24
1
24
2
23
1
23
2
22
1
22
2
21
1
21
2
14
1
14
2
13
1
13
2
12
1
12
2
11
1
11
P
P
HP
P
H
M
M
M
v
u
tv
u
tz
y
x
CCCCCCCC
CCCCCCCC
CCCCCCCC
(5)
109
A partir de la medición de las coordenadas de las proyecciones del punto 3 – D en
los planos de imagen de ambas cámaras, 11 , PP vu y 22 , PP vu , es posible determinar del
sistema (5) las coordenadas MMM zyx ,, del objeto tridimensional usando el método
de los mínimos cuadrados.
Metodología Empleada
El tipo de investigación propuesta es de corte cuantitativo y el método planteado
para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo-
deductivo”.
La metodología propuesta para el desarrollo del proyecto de investigación es la
siguiente: Inicialmente, a partir de la búsqueda de bibliografía critica, se seleccionará
el método más adecuado para estudiar la formación de imágenes, como por ejemplo
el método o modelo de Pin-Hole o modelos de lente gruesa que introduce los
fenómenos de distorsión radial y prismática (Brown, 1972).
A partir de la leyes de transformaciones geométricas se procederá a obtener las
ecuaciones que modelan la conversión 3D-2D en las cámaras incluyendo los
fenómenos de distorsión (matriz de calibración de la cámara y modelo de distorsión),
usando modelos lineales y no lineales (Faugeras, 1993, Zhang, 2000); para luego
proceder al diseño y puesta en marcha de los experimentos de calibración de las
cámaras, con el objetivo de estimar los parámetros extrínsecos- intrínsecos de los
modelos. Inicialmente se estimarán los parámetros del modelo de distorsión de las
lentes de la cámara, con la finalidad de emplear este modelo para corregir las lecturas
en píxeles de los puntos 3 – D capturados.
Con las coordenadas en píxeles corregidas por los efectos de la distorsión, se
aplicarán las técnicas propuestas por (Faugeras, 1993) y (Zhang, 2000) para estimar
los parámetros extrínsecos e intrínsecos de los modelos de las cámaras. Para
corroborar la calidad de los modelos y parámetros estimados de las cámaras, se
propondrá una prueba computacional donde se predecirán las coordenadas de los
píxeles asociadas a puntos seleccionados de un objeto 3D empleando los modelos
mencionados; y luego se compararán estadísticamente con las coordenadas en
píxeles capturadas por las cámaras calibradas usando los mismos puntos 3D del
objeto, y así evaluar la calidad o validez de los modelos propuestos.
Con los parámetros estimados de los modelos propuestos para las cámaras, se
construirá el sistema de ecuaciones lineales y no lineales útil para la estimación de la
profundidad de los objetos 3D usando la Técnica de Estereoscopía. Para la
construcción del sistema de ecuaciones, es necesario resolver el problema de la
correspondencia entre píxeles de dos imágenes provenientes de un mismo objeto,
110
usando el concepto de geometría epipolar, y la solución del sistema de ecuaciones
mencionado se ejecutará empleando métodos numéricos fundamentados en mínimos
cuadrados para sistemas lineales, o su generalización para sistemas no lineales
(Método de Newton, descenso del gradiente, Levenberg - Marquardt entre otros).
Resultados y Conclusiones
A la fecha se han obtenido los siguientes resultados:
- Obtención de las matrices de Calibración por los Métodos de Zhang,
Faugeras y Hall.
- Obtención de las coordenadas pixeladas a partir de las coordenadas del
mundo.
- Descripción detallada de las metodologías propuestas por los autores
mencionados con sus respectivas demostraciones matemáticas, programas
implementados en Matlab para la calibración de las cámaras a partir de
resultados experimentales.
A la fecha se ha verificado que el proceso de estimación de parámetros del modelo
que predice la distorsión radial que introducen las lentes, ha sido sumamente difícil
de aplicar debido a problemas de naturaleza numérica (aparecen matrices mal
condicionadas), que provocan que los métodos numéricos de resolución de
ecuaciones no lineales fracasen en la búsqueda de los valores de los parámetros que
modelan la distorsión de las lentes.
Se propone estimar los parámetros del sistema óptico de cada cámara sin corregir
la distorsión empleando las técnicas de Zhang y Faugeras, aprovechando que la
evidencia experimental muestra que no hay distorsiones apreciables en las imágenes
capturadas.
Referencias
Acosta Amaya, G. A. (2010). Ambiente Multi-Agente Robótico para la navegación colaborativa en
escenarios estructurados. Medellín.
Aristizábal, H. I., & Restrepo, J. (2013). Prototipo para la Medición Automática de la Velocidad de un
Automóvil con Cámara de Video Mediante Procesamiento de Imágenes. Medellín.
Carabias, M., Requero García, D., Rodriguez , R., & Andrés, J. (2010). Sistema de visión
estereoscópica para navegación autónoma de vehículos no tripulados. Madrid.
Colciencias. (2013). Obtenido de www.colciencias.gov.co/programa_estrategia/electr-nica-
telecomunicaciones-e-inform-tica.
111
Correa Niño, D. A., & Sanabria Cárdenas, R. (2010). Robots de Servicio Cooperativos. Revista
Colombiana de Tecnologías de Avanzada, 119-127.
Díaz Celis, C. A., & Romero Molano, C. A. (2011). Navegación de robot móvil usando Kinect, OpenCV
y Arduino. Villavicencio.
Digital Camera World. (s.f.). Obtenido de http://www.digitalcameraworld.com/2012/08/31/cheat-
sheet-friday-how-your-digital-camera-turns-light-into-an-image/
Faugeras, O. (1992). A theory of self-calibration of a moving camera. Springer, 123-151.
Gómez Sánchez, A. E., & Zamorano Acosta, D. I. (2008). visión estereoscópica y estimación de pose
para el posicionamiento de un brazo robótico. Cuernavaca.
Isern González , J. (s.f.). Estudio Experimental de métodos de calibración y autocalibración de
cámaras.
Jaramillo Ortíz, A., Jiménez, R., & Ramos, O. L. (2013). Inspección de calidad para un sistema de
producción industrial. Tecnura.
Jiménez Alonso, F., & Hernández, J. E. (2012). Equipo para controlar automáticamente la dirección de
un vehículo. Madrid.
MIT. (2012). Obtenido de newsoffice.mit.edu/2012/mechanical-engineers-develop-intelligent-car-
co-pilot-0713
Molleda Meré, J. (2008). Técnicas de Visión por Computador para la reconstrucción en Tiempo Real
de la forma 3D de productos laminados. Oviedo.
Nope, S., & Loaiza, H. (2008). Estudio Comparativo de Técnicas para el Reconocimiento de gestos
por Visión Artificial. Cali.
Ordoñez Santiago, C. A. (2005). Formatos de Imagen Digital. Revista Digital Univeristaria, 10.
Ordoñez Santiago, C. A. (2005). Formatos de Imagen Dígital . Revista Dígital Universitaria , 2-10.
Ricolfe Viala, C. (2006). Caracterización y Optimización del proceso de calibrado de cámaras basado
en plantilla bidimensional. Valencia.
Rodríguez Martín, J. (2008). Curso de Fotografía Dígital. Madrid.
Rojas Gualdrón, J. C. (2007). Desarrollo de Estrategias para el control de móviles autónomos
basados en Redes Neuronales. Bucaramanga.
Sánchez Martínez, N., Arias Pérez, B., Gónzalez Aguilera, D., & Gómez Lahoz, J. (2004). Análisis
Aplicado de métodos de calibración de cámaras para usos fotogramétricos. Madrid.
Suárez Sánchez , A. F. (2009). Navegación de un Robot Móvil por Estereovisión . Entre Ciencia e
Ingeniería, 9-23.
Tsai, R. (1987). A versatile camera calibration technique for High-Accuracy 3D machine vision
metrology using off-the-shelf tv cameras and lenses. IEEE, 323-344.
Vilá Ubieto, K. (2009). Reconstrucción 3D de modelos utilizando Técnicas de Visión Artificial.
Madrid.
Wang, A. (2009). A simple Method of Radial Distortion Correction with Centre of Distortion
Estimation. Springer.
Zhang , Z. (2000). A Flexible New Technique for Camera Calibration. IEEE, 1330 - 1334.
112
Desarrollo de un contenido digital
interactivo con prácticas ágiles: Caso
aprendizaje en la formulación de
hipótesis
Álex Ortiz Taborda 19[autor]
Wilder Perdomo Charry 19[autor]
Carlos Arturo Castro Castro 19[autor]
Jose Eucario Parra Castrillón 19[autor]
Resumen
Se hace una breve introducción de que trata el proyecto de investigación que adelanta la
facultad de ingenierías a través del programa de Ingeniería de Sistemas sobre el Desarrollo E
Implementación De Contenidos Digitales., se describe el marco de trabajo
propuesto(MARCODA), preguntas principales que orientaron el proceso de selección y
descripción documental, propósito y metodología del estado del arte, se define contenidos
interactivos, tipos, áreas, donde se aplica el concepto, agilismo, interactividad, niveles de
interactividad, practicas ágiles.
Introducción
Las Tecnologías de la Información y las Comunicaciones (TIC) se han convertido en
herramientas importantes para en los procesos comunicativos y formativos, en los
que se utilizan ampliamente como mediadores entre el conocimiento existente y los
clientes. Por otro lado, en la actual Sociedad de la Información y el Conocimiento la
mayoría de las actividades de las personas tiene una alta dependencia de los
desarrollos tecnológicos, cuyos productos hacen parte integral de las soluciones a sus
problemas. Además, para lograr los objetivos de potencializar el uso y
aprovechamiento de las TIC, y de difundir y optimizar los desarrollos tecnológicos, los
diversos actores se dieron cuenta que era necesario trabajar paralelamente en el
diseño y divulgación de contenidos que permitan alcanzarlos.
Aunque se reconoce su importancia y preponderancia subyacente, los contenidos
todavía presentan deficiencias y no satisfacen adecuadamente los requisitos de
19 Programa de Ingeniería de Sistemas, Semillero de Investigación SISUSBMED, Universidad de San Buenaventura, Medellín. Correo
electrónico: [email protected]
113
fiabilidad, portabilidad, calidad técnica y evidencias sobre el logro de los objetivos de
aprendizaje. Una de las áreas en las que han alcanzado mayor protagonismo estos
productos es en los procesos formativos, donde se difunden principios y
metodologías para aprovechar de mejor forma las TIC y los desarrollos tecnológicos,
pero en la que los contenidos diseñados no tienen una aceptabilidad general, ni
demuestran el logro de los objetivos formativos. Tal es el caso de los objetos de
aprendizaje, el e - Learning, los ambientes virtuales de aprendizaje, la educación
virtual y la educación a distancia, para los cuales se diseñan y promocionan
contenidos a los que se agregan características como soporte a la formación, pero
que siguen presentando falencias.
Poder diseñar contenidos, sin importar el área objetivo, con adecuados niveles de
fiabilidad y de madurez, integrando principios de interactividad y de prácticas ágiles
para optimizar el uso de las TIC y de los desarrollos tecnológicos, y que además se
pueda evaluar el nivel alcanzado del objetivo del diseño, es una necesidad para esta
Sociedad. Los contenidos interactivos diseñados de esta forma podrían ser
económicos, transportables e interdisciplinares, pero sobre todo integradores de
conocimiento. Esto sería una ventaja para que los diferentes actores los puedan
utilizar en sus procesos, como la formación, el marketing, o la divulgación de datos, y
las personas contarían con un desarrollo tecnológico que realmente les permita
satisfacer sus necesidades específicas a través de las TIC.
Se han planteado los siguientes objetivos de investigación:
- Desarrollar un contenido digital interactivo con prácticas ágiles, para apoyar el
aprendizaje en formulación de Hipótesis en proyectos de investigación.
- Especificar necesidades pedagógicas, didácticas y tecnológicas del contenido
digital.
- Diseñar contenido digital interactivo con base en requerimientos funcionales y
no funcionales.
- Implementar el contenido digital interactivo y desplegarlos en un ambiente de
usuario final por versiones.
- Crear mecanismos para verificación, validación y evaluación del contenido
digital en un ambiente de aprendizaje con un grupo de control y un grupo
experimental.
Marco Teórico y Estado del Arte
Se definen los contenidos digitales interactivos como aquellos datos o información
almacenada en un archivo digital y que se reproduce a través de un programa
informático.
114
Según Francisca Gómez Ríos en su presentación en el segundo Seminario técnico
internacional, realizado del 7 al 11 de Junio del 2004 [1]. Clasifica los contenidos
digitales de la siguiente manera: Medios para la Investigación, Medios para la
Comunicación, Medios para la construcción, Medios para la expresión.
La palabra interactividad se vincula con el sustantivo interacción y con el adjetivo
interactivo. La interacción designa ese espacio de relación dialógica que existe entre o
en medio de dos personas u objetos. La interacción implica reciprocidad, es decir un
intercambio comunicativo de una persona o cosa hacia la otra y viceversa [2]. Sobre
los grados o niveles de Interactividad se han desarrollado varias investigaciones. Una
de ellas está presentada por: M. B. A. González [3], en el que se presentan tres grados
de interactividad: auténtica, semi - interactividad e interactividad simulada o virtual.
Frente a agilidad aporta el matiz de que agilismo se puede entender como un
movimiento social, mientras que agilidad aparece como una cualidad. Así, el
movimiento agilista trata de favorecer un cambio de mentalidad en el sector del
desarrollo de software, basado fundamentalmente en los valores y principios que
emanan del Manifiesto Ágil [4] Muchos autores se han arriesgado a definir agilismo en
el desarrollo de software, uno de ellos Highsmith [5]: La agilidad es la capacidad tanto
de crear y responder al cambio con el fin de obtener ganancias en el negocio en un
medio ambiente turbulento.
Metodología Empleada
El proyecto es una investigación aplicada. Se organizarán dos grupos de estudiantes
de metodología de la investigación: un grupo de control y un grupo experimental para
evaluar la pertinencia, usabilidad, fiabilidad, logro de objetivos de aprendizaje entre
otras características, mediante el uso de un contenido digital de aprendizaje (software
educativo). Los estudiantes seleccionados serán de octavo semestre de ingeniería. Se
diseñarán unos guiones de evaluación tanto de los aspectos técnicos del software,
como de los aspectos didácticos y pedagógicos. Se recolectará la información y se
presentarán estadísticas que permitan decidir sobre la validez técnica y pedagógica
del CDA.
Para la ingeniería del software educativo, se empleará MARCODA (Marco de
Construcción de Contenidos Digitales de Aprendizaje), que integra la metodología de
ingeniería del software para el desarrollo de objetos virtuales de aprendizaje
denominada MESOVA [6] y metodología de ingeniería del software para el análisis
diseño, programación y pruebas de objetos virtuales de aprendizaje denominado
ISDOA [7]. El marco de trabajo propuesto es de carácter iterativo y evolutivo. Iterativo
en el sentido de cada fase se repite cíclicamente un número determinado de veces,
hasta cuando el contenido en desarrollo cumpla con las necesidades y expectativas de
115
los usuarios (los formadores y estudiantes), así como las condiciones de calidad
técnicas, pedagógicas y didácticas. Es evolutivo en el sentido que cada versión del
contenido es mejor que la versión anterior, hasta la versión final.
Las fases de MARCODA son:
1. Concepción y análisis de necesidades pedagógicas, didácticas y tecnológicas.
2. Diseño del contenido digital de aprendizaje (CDA)
3. Implementación y despliegue del contenido digital de aprendizaje (CDA)
4. Evaluación experimental educativa del CDA
Resultados y Conclusiones
Los resultados esperados al culminar la investigación son:
1. Procedimientos según la metodología MARCODA, para construir un contenido
digital de aprendizaje. La temática del contenido es formulación y evaluación de
hipótesis en proyectos de investigación.
2. Un software consistente en un contenido digital de aprendizaje.
3. Informe de las pruebas de validación, verificación y experimentación del
contenido digital de aprendizaje.
A la fecha se han obtenido los siguientes avances en la investigación:
1. Estado del arte, Justificación (fase terminada)
2. Metodología MARCODA (Marco de Construcción de Contenidos Digitales de
Aprendizaje). (75% terminado.)
3. Plan de desarrollo de Software (100%).
4. Diseño del Software (100%).
116
Referencias
[1] F. G. Ríos, «cmap.javeriana.edu.co,» Universidad Católica de Valparaíso, 11 6 2004. [En línea].
Available:
http://cmap.javeriana.edu.co/servlet/SBReadResourceServlet?rid=1264792154031_994603675_324
8. [Último acceso: 10 3 2014].
[2] A. Rost, «El concepto de interactividad,» de La Interactividad En El Periódico Digital, Belaterra,
Universidad Nacional de Camahue, 2006, pp. 165-171.
[3] M. B. A. González, Las redes en la enseñanza: interactividad, Revista ADAXE, 2002.
[4] K. Beck, «Principles behind the Agile Manifesto» 2001.
[5] J. Highsmith, «¿What Is Agility?» de Agile Software Development Ecosystems, Addison Wesley,
2002, p. 11.
[6] E. P. Castrillón, «Revista Virtual Católica del Norte,» Católica del Norte Fundación Universitaria,
30 07 2011. [En línea]. Available:
http://revistavirtual.ucn.edu.co/index.php/RevistaUCN/article/view/332/637. [Último acceso: 10 3
2014].
[7] C. A. Castro. Castro. R. Botero. T., E. Serna M., «ACM Digital Library,» 2012. [En línea]. Available:
http://dl.acm.org/citation.cfm?id=2261658&dl=ACM&coll=DL&CFID=475151475&CFTOKEN=2614
5974.
117
Sistema de información geográfica
para la administración de bienes
inmuebles, aplicando los principios
de la gestión del conocimiento
territorial – caso una central
mayorista
Ermilson Alveiro Preciado Echavarría 20[autor]
Sergio Andrés Castrillón 20[autor]
Helena Pérez Garcés 20[autor]
Claudia Elena Durango Vanegas 20[autor]
Carlos Arturo Castro Castro 20[autor]
Resumen
El sistema que se propone desarrollar en la ejecución del Proyecto de investigación debe
estar en la capacidad de proporcionar la información relacionada a la estructura y los servicios
relacionados al sistema de gestión integral para una central mayorista, desde los asistentes
que tendrá esa sesión, como los requisitos logísticos que deben cumplirse, para la
administración y toma de decisiones relacionados a estos. El sistema a implementar además
será útil como consulta acerca de las posibles alarmas que se produzcan.
Para esto, se desarrollará un prototipo, por parte de la Universidad de San Buenaventura, el
cual integrará una base de datos gráfica, con una base de datos alfanumérica; facilitando así la
consulta y gestión de datos de una manera más organizada y sistematizada.
Introducción
En la actualidad existen los sistemas de información geográfica (SIG) como una
herramienta de desarrollo de la informática. Estos sistemas de información se
extienden en infinidad de disciplinas aplicadas que requieren técnicas y herramientas
especializadas, como el urbanismo, la ordenación del territorio, los transportes, la
20 Programa de Ingeniería de Sistemas, Semillero de Investigación SISUSBMED, Universidad de San Buenaventura, Medellín. Correo
electrónico: [email protected]
118
planificación de infraestructuras, la hidrología, la planificación ambiental, la
agricultura o la gestión de riesgos (L. Zurita Espinosa, 2013)
La administración de infraestructura a partir de un sistema de información es un
tema que se encuentra en desarrollo y corresponde a un nuevo campo de los SIG. La
propuesta es el montaje del Sistemas de Información Territorial para la Central
Mayorista basado en principios de Gestión del Conocimiento.
Marco Teórico y Estado del Arte
En la actualidad existen sistemas de información geográfica enfocados en la
planificación física, como se describe a continuación en cuatro casos en diferentes
lugares y aplicaciones.
El primero es el caso de la Universidad de Rochester que es una importante
universidad de investigación de Nueva York, en donde la Universidad experimenta una
rápida expansión generando inconvenientes en la administración de los servicios
públicos del campus universitario (acueducto, telefonía, alcantarillado, gas natural,
distribución eléctrica, sistema de alumbrado, entre otros). Para entender y organizar
la infraestructura de servicios la Universidad contrato a la empresa Bergmann
Associate, socio de ESRI, para desarrollar una solución utilizando ArcGis Desktop y
ArcGis 3D Analyst.
El proyecto incluye la georreferenciación de los servicios públicos existentes dentro
de una base de datos espacial. La solución presentada a los empleados de la central
de servicios públicos es un modelo 3D de la universidad con los sistemas de servicios
completamente mapeadas. Con esta solución la Universidad identifico que podrían
potenciar la planificación del campus mejorando la toma de decisiones y recaudación
de fondos (Información)
El segundo es el caso del Campus “Gustavo Galindo V.” de la ESPOL. En donde el SIG
agiliza el proceso de toma de decisiones en el área de planificación física, al hacer
que los planos y la información esté disponible y actualizada para los miembros de la
unidad de planificación de ESPOL. En el SIG se cuenta con el plano general del
campus, plano y formulario de información para edificaciones, permite realizar
búsquedas de edificios o ambientes, permite crear áreas y visualizar las áreas de
tuberías. El sistema es una herramienta que proporciona información para
actividades de planificación física, sin embargo dispone de mayor cantidad de planos
digitalizados lo que genera un mayor valor
El tercer caso se dio en la Universidad de Calgary en Canadá, que comenzó a utilizar
SIG desde hace 20 años y ahora se ha estandarizado en la gestión de su información
geográfica con la tecnología de ESRI. La Universidad gestiona no solo los datos
119
académicos, sino también los datos institucionales y administrativos. La solución
plantea gestionar datos espaciales además de los bienes raíces, infraestructura, y la
información de las instalaciones.
Y el cuarto y último caso es Sigua.ua.es, que es una plataforma que también nació
de un proyecto de investigación en la Universidad de Alicante, España en el año de
1997, con el fin de tener una mejor distribución de los espacios de la universidad
para la gestión de docentes y académicos (reserva de espacios), infraestructuras,
espacios (distribución de espacios, patrimonio e inventario, señalización,
simulaciones), prevención, seguridad e higiene, etc. Pero que ha ido evolucionando de
acuerdo a las necesidades de los usuarios.
Por eso los directivos de la Universidad de Alicante propusieron la creación de una
red de conocimiento abierta para las universidades que utilizan estas herramientas
de información geográfica para tener un soporte y desarrollo de este sistema SIGUA
para poder resolver problemas en común en muchas universidades como es la
distribución de espacio y un control adecuado de las instalaciones y para poder tener
un mejor uso de ellas ya que cada semestre se variaba la ubicaciones de los salones
por la cantidad de estudiantes y las clases que se asignar de acuerdo a la facultades,
especializaciones, maestrías, extensión cultural entre otros.
Metodología Empleada
Como el proyecto de investigación está dirigido a la aplicación de los sistemas de
información, se ha adoptado la decisión de emplear la metodología Métrica V.3,
debido a que es una metodología robusta, muy documentada y clara que permite el
trabajo multidisciplinario y suficientemente probado.
“La metodología MÉTRICA Versión 3 ofrece a las Organizaciones un instrumento
eficaz para la sistematización de las actividades que soportan el ciclo de vida del
software dentro del marco que permite alcanzar los siguientes objetivos: −
Proporcionar o definir Sistemas de Información que ayuden a conseguir los fines de la
Organización mediante la definición de un marco estratégico para el desarrollo de los
mismos. − Dotar a la Organización de productos software que satisfagan las
necesidades de los usuarios dando una mayor importancia al análisis de requisitos. −
Mejorar la productividad de los departamentos de Sistemas y Tecnologías de la
Información y las Comunicaciones, permitiendo una mayor capacidad de adaptación a
los cambios y teniendo en cuenta la reutilización en la medida de lo posible. −
Facilitar la comunicación y entendimiento entre los distintos participantes en la
producción de software a lo largo del ciclo de vida del proyecto, teniendo en cuenta
su papel y responsabilidad, así como las necesidades de todos y cada uno de ellos. −
120
Facilitar la operación, mantenimiento y uso de los productos software obtenidos”.
(Ministerio de Administraciones Públicas Gobierno de España)
La versión métrica v3 tiene un enfoque orientado al proceso, y está enmarcada en la
norma ISO 12207, y cubre los procesos para la planificación, desarrollo y
mantenimiento del sistema de información con interfaces bien definidas que permite
el aseguramiento de la calidad, gestión de proyectos y de la configuración y
seguridad. En la figura 1 se esquematiza la metodología.
Figura 1. Metodología Métrica Versión 3. La imagen es propiedad de (Ministerio de
Administraciones Públicas Gobierno de España).
Métrica es la estrategia documental del trabajo de investigación y esta sostenidas
bajo un DISEÑO METODOLÓGICO conformado por tres fases:
Fase 1: Diagnostico de los procesos administración de los bienes inmuebles.
Fase 2: Estructuración del componente espacial.
Fase 3: Implementación del modelo análisis.
Resultados y Conclusiones
Los resultados generados fueron los siguientes:
- Documento Técnico del Diagnostico confidencial (Primera Fase) que contiene la
planificación y la viabilidad del sistema de información y un adelanto en la
estructuración de la evaluación y el diseño de los sistemas de información.
121
- Documento Técnico Estructural de la documentación y la Base de Datos
Espaciales (Segunda Fase), que contiene un adelanto en el desarrollo del
modelo alfanumérico y la geoda base catastral.
- Se tiene identificado el Prototipo del Sistema de Información Geográfica, para
la Administración de Bienes Inmuebles de la central Mayorista.
Resultados esperados:
- Documento Entregado del sistema de información que contenga todos los
procesos de la metodología Métrica V3
- Documento Técnico que contenga la Base de Datos Espacial.
- Prototipo (Software, Base de datos Geográfica y Documentos Técnicos).
Las conclusiones generadas son las siguientes:
- La metodología métrica V3, debido a su estructura clara, fácil de documentar
y flexible, permite la comunicación y el trabajo multidisciplinario de los
integrantes del proyecto.
- El desarrollo de proyectos de investigación de carácter geo - informáticos
permite adquirir y controlar informaciones relacionada a la estructura y los
servicios relacionados a sistemas administrativos y la toma de decisiones
inteligentes a través de la visualización espacial y el análisis.
Referencias
ESRI. (2011). A 3D GIS Solution for Campus Master Planning. Obtenido de ArcNews:
http://www.esri.com/news/arcnews/summer11articles/a-3d-gis-solution-for-campus-
master-planning.html
Información, C. d. (s.f.). Generalidades de los Sistemas de Información Geográfica. BOGOTÁ, D. C.: I.
G. A. Codazzi.
L. Zurita Espinosa. (2013). La Gestión del Conocimiento Territorial. p. 204.
Ministerio de Administraciones Públicas Gobierno de España. (s.f.). Metodología MÉTRICA Versión 3.
Obtenido de
http://administracionelectronica.gob.es/pae_Home/dms/pae_Home/documentos/Documen
tacion/Metodologias-y-guias/Metricav3/METRICA_V3_Introduccion.pdf.
122
Generación de material didáctico
para el uso de radios definidos por
software
Andrés Felipe Giraldo Almanza 21[autor]
Pablo Andrés Rueda Carvajal 21[autor]
Jairo Andrés Moreno Ciro 21[autor]
Resumen
Este proyecto se enfoca en la generación de material de apoyo para el desarrollo de prácticas
que hagan uso de radios definidos por software (SDR), con el fin de potenciar el aprendizaje
significativo en el programa de Ingeniería en Telecomunicaciones del Politécnico
Grancolombiano.
Introducción
Este proyecto pretende adelantar una investigación aplicada en temáticas de
implementación actuales en el mundo de las telecomunicaciones, SDR es una
tecnología en implementación en países avanzados tecnológicamente hablando, sin
embargo marca tendencia en el desarrollo de sistemas de transmisión de últimas
generaciones. Lo anterior se puede ver reflejado en:
Desarrollo de un laboratorio de aplicaciones de SDR, que permita a los estudiantes
del programa conocer y manipular esquemas de transmisión que seguramente
encontraran durante su vida laboral.
Avances hacia el desarrollo de aplicativos en radio cognitiva, la experiencia que
adquiera la Facultad en este proyecto puede ser utilizada en la construcción de
futuras iniciativas de investigación que deriven en el uso de los sistemas de radio
definido pos software como base y generen aplicaciones en sistemas de radio
cognitiva.
21 Programa de ingeniería en telecomunicaciones, Semillero InVADE (Semillero en instrumentación, automatización y electrónica),
Institución Universitaria Politécnico Grancolombiano, Bogotá. Correo electrónico: [email protected]
123
Marco Teórico y Estado del Arte
La aplicación de Radio Definida por Software (SDR) se define de diversas maneras, la
definición más sencilla la da el SDR Forum que describe los sistemas de radio definida
por software como “Radios con algunas o todas sus funciones de capa física definidas
por programación (software)”, en ellos las funciones realizadas en procesamiento de
señal usan DSP (procesamiento digital de señales), mientras que se utilizan sistemas
de RF convencionales, esto permite tener una plataforma de transmisión que puede
variar los esquemas de tratamiento de señal y adaptarse a los cambios que requiera la
red, adicionalmente los servicios que se prestan pueden cambiar de canal
(frecuencia), con el fin de mejorar la experiencia de la comunicación percibida por los
usuarios finales.
El uso de SDR es el primer paso en la implementación de un sistema de radio
cognitiva, tecnología que se está implementando y explotando en la presente década,
gracias al uso de los SDRs podemos garantizar el reusó de espectro (objetivo
establecido por la UIT), siendo el desarrollo de esquemas y protocolos sobre SDR un
tema de investigación relevante.
Metodología Empleada
Se presentan las siguientes etapas para el desarrollo del proyecto:
Análisis de requerimientos y posibilidades de la aplicación, en esta etapa se definen
las funciones que deben cumplir el sistema de transmisión y los limitantes que
provienen del hardware a utilizar.
Construcción de un marco referencial, Donde se revisarán esquemas existentes
(Transmisión y modulación), especificando su facilidad de implementación y posibles
aportes al desarrollo del trabajo
Implementación de posibles esquemas, etapa en la cual se construirán el conjunto
de posibles modulaciones y otras manipulaciones de señal y las diferentes frecuencias
que se utilizarán.
Pruebas y ajustes, Análisis del funcionamiento de las prácticas implementadas y
ajustes. Se incluye la consolidación de experimentos y consecución de datos, se
incluye la medición de interferencias en la transmisión RF haciendo uso de equipo
especializado, y finalmente la divulgación de los resultados y productos de la
investigación.
124
Resultados y Conclusiones
A la fecha el proyecto ha presentado los siguientes resultados:
- Generación de prácticas de configuración y uso de equipos de transmisión
haciendo uso del software LabView.
- Revisión de requerimientos para el uso del software GNU-radio.
- Implementación de una de las prácticas en el curso de Telecomunicaciones I
del programa de Ingeniería en Telecomunicaciones del Politécnico
Grancolombiano.
Referencias
ITU-R SM.2152, “Definitions of Software Defined Radio (SDR) and Cognitive Radio System (CRS)
Report,” Sept. 2009.
J. R. W. Heath, Digital Wireless Communication: Physical Layer Exploration Lab Using the NI USRP —
Student Lab Manual, Nat’l. Technology and Science Press, 2012.
A. M. Wyglinski, D. Pu, and D. Cullen, “Digital Communication Systems Education via Software-
Defined Radio Experimentation,” Proc.ASEE Annual Conf., 2011.
S. Katz and J. Flynn, “Using Software Defined Radio (SDR) to Demonstrate Concepts in
Communications and Signal Processing Courses,” 9th IEEE Frontiers in Education Conf., 2009.
C. R. Anderson, G. Schaertl, and P. Balister, “A Low-Cost Embedded SDR Solution for Prototyping and
Experimentation,” Proc. 2009 software Defined Radio Technical Conf. Digest of Papers, Washington,
DC, Dec. 2009.