escuela superior de ingenierÍa mecÁnica y lÉctrica unidad …
Post on 18-Oct-2021
4 Views
Preview:
TRANSCRIPT
P R E S E N T A:
ING. ALBERTO MORALES VARELA
DIRIGIDA POR: DR. EMMANUEL ALEJANDRO MERCHÁN CRUZ M. EN C. RAÚL RIVERA BLAS
INTERCEPCIÓN EN
MOVIMIENTO DE PIEZAS METÁLICAS QUE NO CUMPLEN
CON REQUERIMIENTOS DE CALIDAD
TESIS
QUE PARA OBTENER EL TÍTULO DE
INSTITUTO POLITÉCNICO NACIONAL
MÉXICO, D.F. DICIEMBRE DEL 2010
MAESTRO EN INGENIERÍA DE MANUFACTURA
ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA UNIDAD AZCAPOTZALCO
DEDICATORIA. A mis Padres & Hermanas
Que me brindaron su apoyo y consejos, y en los momentos más difíciles me alentaron a seguir adelante,
anhelando que siempre me preparará para enfrentar a la vida.
Hoy se ven culminados nuestros esfuerzos
y mis deseos, iniciándose así, una nueva etapa de mi vida
en la que siempre estarán en mi corazón.
Por ello, A Dios y a Ustedes.
¡Gracias!
Alberto
Sabiendo que jamás existirá una forma de agradecer una vida de lucha, sacrificio y esfuerzo
constantes, solo deseo que comprendan que el logro mío es suyo y que mi esfuerzo es inspirado en ustedes.
AGRADECIMIENTOS. Agradezco a nuestra muy querida Alma Mater, el Instituto Politécnico Nacional por su gran labor como rectora de la educación tecnológica de México. Agradezco al Dr. Emmanuel Alejandro Merchán Cruz por su calidez, dedicación y aportes en el presente trabajo. Agradezco al M. en C. Raúl Rivera Blas por su colaboración y asistencia.
Agradezco al Dr. Ricardo Gustavo Rodríguez Cañizo por su colaboración y consejos. Agradezco la colaboración de los amigos que me brindaron su apoyo y mostraron interés a lo largo de esta etapa de mi vida.
Los líderes de éxito serán aquellos que dirijan inspirando a los individuos. John Sculle
Tesis de Grado
i
Índice General Índice de Figuras ............................................................................................................................. vÍndice de Tablas ............................................................................................................................. ixResumen. ......................................................................................................................................... xAbstract. .......................................................................................................................................... xObjetivo General. ........................................................................................................................... xiJustificación. .................................................................................................................................. xi1. Estado del Arte. ........................................................................................................................... 2
1.1 Inspección con Visión Artificial. ............................................................................................ 21.2 Inspección Dimensional por Medio de Visión Artificial. ........................................................ 81.3 Robot Industrial. ..................................................................................................................111.4 La Visión Artificial en Robótica. ..........................................................................................131.5 Método de Intercepción de Objetos en Movimiento. .............................................................17
1.5.1 Métodos de Intercepción de Objetos con Trayectorias Predecibles. ................................181.5.2 Intercepción de Objetos en Movimiento con Trayectorias Aleatorias. .............................20
1.6 Planeación de Trayectorias. ...................................................................................................211.7 Objetivos del Proyecto y Organización de la Tesis. ...............................................................22
1.7.1 Planteamiento Del Problema. .........................................................................................221.7.2 Objetivos Específicos. ....................................................................................................23
2. Generalidades. ............................................................................................................................262.1 Visión Artificial. ...................................................................................................................262.2 Inspección Visual Automática. ..............................................................................................292.3 Etapas del Sistema de Visión Artificial. ................................................................................302.4 Adquisición de la Imagen. .....................................................................................................32
2.4.1 Sensor de Imagen. ..........................................................................................................322.4.2 Iluminación. ...................................................................................................................332.4.2.1 Técnicas de Iluminación. .............................................................................................342.4.2.2 Dispositivos Comerciales Empleados en Sistemas de Iluminación. ..............................352.4.3 Tarjeta de Captura o Adquisición de Imágenes. ..............................................................36
2.5 Análisis de la Imagen. ...........................................................................................................372.5.1 Preprocesado. .................................................................................................................372.5.2 Segmentación. ................................................................................................................412.5.3 Extracción de Características. .........................................................................................422.5.4 Reconocimiento de Patrones. ..........................................................................................43
2.6 Generalidades Robótica. .......................................................................................................44
Tesis de Grado
ii
2.6.1 Definición Robótica Industrial. .......................................................................................452.6.2 Robot Manipulador. .......................................................................................................45
2.7 Cinemática. ...........................................................................................................................472.7.1 Cinemática Directa. ........................................................................................................472.7.2 Geometría Espacial. .......................................................................................................482.7.3 Matriz de Rotación. ........................................................................................................482.7.4 Coordenadas Homogéneas y Matriz de Transformación. ................................................522.7.5 Representación de Denavit- Hartenberg (D-H). ..............................................................53
2.8 Planeación de Trayectorias. ...................................................................................................572.9 Calidad. ................................................................................................................................582.10 Sumario. .............................................................................................................................59
3. Diseño Conceptual. .....................................................................................................................613.1 Metodología QFD (Quality Function Deployment). ..............................................................61
3.1.1 Identificación del Cliente. ..............................................................................................623.1.2 Determinación de los Requerimientos. ...........................................................................633.1.3 Clasificación de los Requerimientos. ..............................................................................643.1.4 Importancia Relativa de los Requerimientos de Calidad. ................................................673.1.5 Estudio Comparativo a Sistemas de la Competencia. ......................................................683.1.6 Establecimiento de Metas de Diseño y Traducción de los Requerimientos y Expectativas de los Clientes en Términos Mesurables. .................................................................................70
3.2 Desarrollo del Diseño Conceptual. ........................................................................................723.2.1 Función Global de Servicio del Sistema. ........................................................................733.2.2 Análisis Funcional Descendente. ....................................................................................733.2.2.1. Primer Nivel de Descomposición Funcional ...............................................................743.2.2.2. Segundo Nivel de Descomposición Funcional ............................................................743.2.2.3. Tercer Nivel de Descomposición Funcional ................................................................763.2.3 Generación de Conceptos. ..............................................................................................813.2.4 Evaluación de Conceptos. ..............................................................................................843.2.4.1 Evaluación Fundamentada en la Factibilidad del Concepto. .........................................853.2.4.2 Evaluación Con Base en la Disponibilidad Tecnológica. .............................................86
3.3 Modelo Funcional. ................................................................................................................903.4 Descripción de los Elementos del Sistema de Intercepción en Movimiento de Piezas Metálicas que no Cumplen con Requerimientos de Calidad. .......................................................................933.5 Sumario. ............................................................................................................................. 102
4. Diseño a Detalle. ...................................................................................................................... 1044.1 Descripción General del Sistema. ........................................................................................ 104
Tesis de Grado
iii
4.2 Descripción de la Pieza a Inspeccionar. ............................................................................... 1074.3 Subsistema de Percepción. .................................................................................................. 108
4.3.1 Detección de la Pieza. .................................................................................................. 1104.3.2 Generación de Evento. ................................................................................................. 1114.3.3 Visualización y Captura de la Imagen. .......................................................................... 1124.3.3.1 Especificaciones del Sistema de Percepción. ............................................................. 1144.3.3.2 Sensor de Imagen. ..................................................................................................... 1154.3.4 Análisis de la Imagen. .................................................................................................. 1164.3.4.1 Preprocesado y Segmentación. .................................................................................. 1164.3.4.2 Extracción de Características. .................................................................................... 1234.3.4.3 Reconocimiento de Patrones. ..................................................................................... 126
4.4 Subsistema de Actuación. ................................................................................................... 1284.4.1 Método de Intercepción de Objetos en Movimiento. ..................................................... 1304.4.2 Cinemática Directa del Robot Manipulador IRB 1600 ABB. ........................................ 1314.4.2 Cinemática Inversa del Robot Manipulador IRB 1600 ABB. ........................................ 136
4.5 Comunicación del Sistema. ................................................................................................. 1424.5.1 Características de la Tarjeta de Adquisición de Datos. .................................................. 1444.5.1 Características del Controlador IRC5 ABB. .................................................................. 1444.5.3 Acoplamiento de Señales. ............................................................................................ 145
4.6 Sumario. ............................................................................................................................. 1485. Implementación y Análisis de Resultados. ................................................................................ 150
5.1 Implementación y Resultados del Subsistema de Percepción. .............................................. 1505.2 Implementación y Resultados del Subsistema de Actuación. ............................................... 160
5.2.1 Implementación Cinemática Directa del Robot Manipulador IRB 1600 ABB. .............. 1605.2.2 Implementación Cinemática Inversa del Robot Manipulador IRB 1600 ABB. .............. 1635.2.3 Implementación y Resultados del Método de Intercepción de Objetos en Movimiento. 166
5.3 Implementación y Resultados del Subsistema de Comunicación. ........................................ 1725.4 Análisis de Resultados del Sistema General. ....................................................................... 1735.5 Sumario. ............................................................................................................................. 175
Conclusiones. ............................................................................................................................... 176Propuestas de Desarrollos a Futuro. .............................................................................................. 177Referencias. .................................................................................................................................. 178Anexos. ........................................................................................................................................ 183
A1. Especificaciones Técnicas Del Robot IRB 1600 ABB. ....................................................... 183A2. Programa Cinemática Directa del Robot IRB 1600 ABB. ................................................... 185A3. Programa Cinemática Inversa del Robot IRB 1600 ABB. ................................................... 186
Tesis de Grado
iv
A4. Programa Modelo Robot IRB 1600 ABB. .......................................................................... 190A5. Instrucciones Frecuentes en el Lenguaje de Programación RAPID. .................................... 192
Tesis de Grado
v
Índice de Figuras Figura 1.1 Punto de intercepción óptimo (Mehrandezh, 1999). .......................................................19Figura 2.1 Aplicaciones Industriales de Visión Artificial (Platero, 2009). ......................................28Figura 2.2 Sistema de Inspección Visual Automatizado (Buscara, 2006). ......................................28Figura 2.3 Sistema de Inspección Visual Automática Empleado en la Industria de Bebidas (Forero, 2008). .............................................................................................................................................29Figura 2.4 Diagrama de Bloques del Subsistema de Percepción. .....................................................30Figura 2.5 Diagrama de Bloques del Subsistema de Actuación. ......................................................31Figura 2.6 Elementos de un Sistema de Visión Artificial (Herrero, 2005). ......................................31Figura 2.7 Sensor de Visión Cognex DVT 535C. ............................................................................33Figura 2.8 Etapas de un Proceso de Reconocimiento de Formas. ....................................................37Figura 2.9 Longitud de Onda de Componentes RGB de una imagen (Herrero, 2005). .....................38Figura 2.10 Transformación del Histograma (González&Woods, 2002). .........................................39Figura 2.11 Modificación de un Histograma (González&Woods, 2002). .........................................40Figura 2.12 Gráficas Ilustrativa de Aclaración y Obscurecimiento de Pixeles (González&Woods, 2002). .............................................................................................................................................40Figura 2.13 Filtrado en el Dominio de la Frecuencia (Saco&Montini, 2005b). ................................41Figura 2.14 Manipulador ABB - IRB1600. .....................................................................................46Figura 2.15 Manipulador de cadena abierta y Manipulador de cadena cerrada (Santos&Duro, 2005).
.......................................................................................................................................................46Figura 2.16 Diagrama a Bloques “Cinemática”. ..............................................................................47Figura 2.17 Representación de un vector en coordenadas cartesianas en 3 dimensiones (Mark W. Spong et al., 2006). .........................................................................................................................48Figura 2.18 Sistema de referencia OXYZ y solidario al objeto OUVW (Mark W. Spong et al., 2006).
.......................................................................................................................................................49Figura 2.19 Rotación sobre el Eje X (Mark W. Spong et al., 2006). ................................................50Figura 2.20 Rotación sobre el Eje Y (Mark W. Spong et al., 2006). ................................................50Figura 2.21 Rotación sobre el Eje Z (Mark W. Spong et al., 2006). .................................................51Figura 2.22 Sistema de Referencia . .................................................................................55Figura 2.23 Sistemas de Coordenadas para i=1,2,3. ..........................................................56Figura 2.24 Sistema de Coordenadas de la Mano , , n=4. .................................................56Figura 2.25 Ejemplo de Planeación de Trayectoria (Russell&Norvig, 2004). ..................................57Figura 3.1 Estructura de la Matriz de Calidad (Goetsch&Davis, 2005). ...........................................62Figura 3.2 Pieza Metálica “Disco de Corte Diamantado”. ...............................................................63Figura 3.3 Diagrama Funcional de Mayor Nivel en el Sistema. .......................................................73Figura 3.4 Funciones Primarias del Sistema. ...................................................................................74Figura 3.5 Función de Inspección de Piezas. ...................................................................................74
Tesis de Grado
vi
Figura 3.6 Función de Transportación de Piezas. ............................................................................75Figura 3.7 Función de Intercepción de Pieza. ..................................................................................75Figura 3.8 Función de Comunicación del Sistema. ..........................................................................75Figura 3.9 Función de Visualización del Sistema. ...........................................................................76Figura 3.10 Función de Captura de Imagen. ....................................................................................76Figura 3.11 Función de Análisis de Imagen. ...................................................................................76Figura 3.12 Función de Movimiento. ..............................................................................................77Figura 3.13 Función Robot Manipulador. .......................................................................................77Figura 3.14 Función Efector Final. .................................................................................................77Figura 3.15 Función de Comunicación Subsistema de Percepción. ..................................................78Figura 3.16 Función de Comunicación Subsistema de Actuación. ...................................................78Figura 3.17 Función de Visualización del Sistema “Hardware”. ......................................................78Figura 3.18 Función de Visualización del Sistema “Software”. .......................................................78Figura 3.19 Análisis Funcional Descendente. ..................................................................................81Figura 3.20 Clasificación de Robots Manipulador (Iñigo&Vidal, 2006). .........................................83Figura 3.21 Modelo Conceptual del Sistema. ..................................................................................92Figura 3.22 Sensor de Imagen del Sistema de Inspección Automático. ............................................94Figura 3.23 Banda Transportadora Empleada en el Proceso. ...........................................................95Figura 3.24 Robot Modelo IRB 1600 de la Marca ABB. .................................................................96Figura 3.25 Conjunto de aspiración y tobera de accionamiento neumático para sujeción de piezas mediante el uso de una ventosa. ......................................................................................................96Figura 3.26 Tarjeta de Adquisición de Datos NI-USB 6009. ...........................................................97Figura 3.27 Cable de Par Trenzado Marca AT&T. ..........................................................................98Figura 3.28 Controlador Modelo IRC 5 de la Marca ABB. .............................................................99Figura 3.29 Pantalla Gráfica en el Lenguaje de Programación LAbVIEW. .................................... 100Figura 3.30 Elementos que Componen el Diseño Conceptual del Sistema. .................................... 101Figura 4.1 Esquema del Sistema a Implementar. ........................................................................... 106Figura 4.2 Pieza Metálica “Disco de Corte Diamantado”. ............................................................. 107Figura 4.3 Especificaciones del Disco de Corte Diamantado. ........................................................ 108Figura 4.4 Diagrama de Flujo del Algoritmo de Adquisición y Procesamiento Digital de Imágenes.
..................................................................................................................................................... 109Figura 4.5 Diagrama Electrónico Sensor Infrarrojo. ...................................................................... 110Figura 4.6 Algoritmo Detección de la Pieza Mediante un Sensor Infrarrojo. ................................. 111Figura 4.7 Algoritmo Generación de Evento. ................................................................................ 111Figura 4.8 Algoritmo Visualización de la Escena. ......................................................................... 113Figura 4.9 Algoritmo Captura de la Imagen. ................................................................................. 114
Tesis de Grado
vii
Figura 4.10 Algoritmo Almacenamiento de la Imagen. ................................................................. 114Figura 4.11 Especificaciones del Sensor de Imagen. ..................................................................... 115Figura 4.12 Algoritmo Región de Interés (ROI). ........................................................................... 117Figura 4.13 Algoritmo Orientación del Patrón de la Imagen (ROI). .............................................. 117Figura 4.14 Algoritmo Filtro de Convolución. .............................................................................. 120Figura 4.15 Algoritmo Filtro de Gaussiano. .................................................................................. 121Figura 4.16 Algoritmo Segmentación. .......................................................................................... 122Figura 4.17 Algoritmo Operación Morfológica. ............................................................................ 123Figura 4.18 Algoritmo de Extracción de Características. ............................................................... 125Figura 4.19 Algoritmo Reconocimiento de Patrones. .................................................................... 126Figura 4.20 Algoritmo Reconocimiento de Patrones. .................................................................... 126Figura 4.21 Algoritmo “Subsistema de Percepción”. ..................................................................... 127Figura 4.22 Ejes Robot Manipulador IRB 1600 ABB. ................................................................... 128Figura 4.23 Área de Trabajo del Robot Manipulador. ................................................................... 129Figura 4.24 Definición de los Sistemas de Coordenadas en cada Articulación. .............................. 133Figura 4.25 Sistemas de Coordenadas IRB 1600 ABB. ................................................................. 137Figura 4.26 Sistemas de Coordenadas del Efector Final y Posición Central de la Muñeca. ............ 137Figura 4.27 Algoritmo “Activación de Ejecución de Trayectorias”. .............................................. 142Figura 4.28 Diagrama de Flujo de Datos. ...................................................................................... 143Figura 4.29 Configuración de Puertos NI DAQ USB-6009. .......................................................... 144Figura 4.30 Tarjeta DSQC 332 ABB (16 Digital Inputs & 16 Output). ......................................... 145Figura 4.31 Diagrama Electrónico “Acoplamiento de Señales 5 V – 24 V”. .................................. 146Figura 4.32 Diagrama PCB “Acoplamiento de Señales 5 V – 24 V”. ............................................ 146Figura 4.33 Diagrama Electrónico “Acoplamiento de Señales 24 V – 5 V”. .................................. 147Figura 4.34 Diagrama PCB “Acoplamiento de Señales 24 V – 5 V”. ............................................ 147Figura 5.1 Imagen Obtenida Durante la Etapa de Visualización y Captura de Imagen. .................. 150Figura 5.2 Imagen Obtenida Durante la Fase de Conversión de Modelo de Color y Establecimiento de Región de Interés. .................................................................................................................... 151Figura 5.3 Imagen Obtenida Mediante la Aplicación de un Filtro de Convolución. ....................... 152Figura 5.4 Imagen Obtenida Mediante la Aplicación de un Filtro de Gaussiano. ........................... 152Figura 5.5 Establecimiento del Sistema de Coordenadas. .............................................................. 153Figura 5.6 Identificación de 9 Segmentos del Disco. ..................................................................... 153Figura 5.7 Identificación del Barreno del Disco. ........................................................................... 154Figura 5.8 Identificación de Bordes del Disco. .............................................................................. 154Figura 5.9 Orientación del Disco. ................................................................................................. 154
Tesis de Grado
viii
Figura 5.10 Imagen Obtenida Mediante la Conversión a Imagen Binaria y Aplicación de la Operación Morfológica de Erosión. .............................................................................................. 155Figura 5.11Imagen Binarizada. ..................................................................................................... 156Figura 5.12 Comparación de Parámetros de Segmentos del Disco. ................................................ 156Figura 5.13 Comparación de Parámetros de Barreno de Disco. ..................................................... 156Figura 5.14 Comparación de Parámetros de Diámetro del Disco. .................................................. 156Figura 5.15 Histograma de Diámetro de Barreno. ......................................................................... 158Figura 5.16 Histograma de Diámetro de Disco. ............................................................................. 158Figura 5.17 Histograma de Diámetro de Segmentos. ..................................................................... 158Figura 5.18 Diagramas de Pareto. ................................................................................................. 159Figura 5.19 Estado de Inspección de la Pieza. ............................................................................... 160Figura 5.20 Modelo del Robot en Matlab. ..................................................................................... 161Figura 5.21 Detalle A. .................................................................................................................. 161Figura 5.22 Distancia entre Posición Central de la Muñeca y el Efector Final. .............................. 164Figura 5.23 Características de la Banda Transportadora. ............................................................... 166Figura 5.24 Fases de la Intercepción de Piezas. ............................................................................. 170Figura 5.25 Pantallas Gráfica del Sistema. .................................................................................... 171Figura 5.26 Tarjetas de Acoplamiento de Señales Desarrolladas. .................................................. 173
Tesis de Grado
ix
Índice de Tablas Tabla 1.1 Métodos de Inspección de Calidad con el empleo de Sistemas de Visión Artificial y sus Aplicaciones. ................................................................................................................................... 6Tabla 1.2 Clasificación de los robots según T. M. Knasel. ..............................................................13Tabla 2.1 Parámetros D-H. .............................................................................................................56Tabla 3.1 Determinación de los Requerimientos del Cliente. ..........................................................64Tabla 3.2 Identificación de Requerimientos de Calidad (Obligatorios y Deseables). .......................66Tabla 3.3 Matriz de Importancia Relativa en los Requerimientos Deseables. ..................................67Tabla 3.4 Nivel de Satisfacción. ......................................................................................................68Tabla 3.5 Benchmarking Comparativo de los Requerimientos de Calidad. ......................................69Tabla 3.6 Traducción de los Requerimientos de Calidad a Requerimientos de Ingeniería. ...............70Tabla 3.7 Generación de Conceptos. ...............................................................................................88Tabla 3.8 Evaluación de Conceptos. ...............................................................................................89Tabla 4.1 Especificaciones del Sistema. ........................................................................................ 114Tabla 4.2 Máscara de Convolución. .............................................................................................. 119Tabla 4.3 Posición de Objetos del Área de Trabajo. ...................................................................... 129Tabla 4.4 Características Geométricas y Especificaciones del Efector Final. ................................. 129Tabla 4.5 Características Geométricas y Especificaciones de la Banda Transportadora. ................ 130Tabla 4.6 Parámetros Denavit-Hartenberg IRB 1600 ABB. .......................................................... 133Tabla 5.1 Muestra de Piezas Inspeccionadas. ................................................................................ 157Tabla 5.2 Análisis de Defectos. ..................................................................................................... 159Tabla 5.3 Parámetros Denavit-Hartenberg IRB 1600 ABB. .......................................................... 161Tabla 5.4 Valores de Coordenadas Articulares en Posición de Home del Robot. ........................... 165Tabla 5.5 Valores de Coordenadas Articulares en Posición de Intercepción de Pieza. ................... 165Tabla 5.6 Valores de Coordenadas Articulares en Posición de Pieza Rechaza. .............................. 165Tabla 5.7 Señales Empleadas en la Etapa de Comunicación del Sistema. ...................................... 172Tabla 5.8 Análisis de Resultados del Sistema. ............................................................................... 173
Tesis de Grado
x
Resumen.
Este trabajo presenta el desarrollo y la implementación de un sistema de intercepción de piezas en
movimiento, mediante el diseño de una estación de control de calidad orientada a la inspección dimensional
de piezas metálicas, aplicando técnicas de visión artificial y el desarrollo de estrategias para la planeación de
trayectorias de un robot manipulador de seis grados de libertad IRB 1600 ABB. El sistema de visión artificial
está integrado por un conjunto de dispositivos encargados de capturar imágenes y procesarlas para verificar
las características dimensionales de las piezas, el sistema desarrolla su análisis con base a una a una pieza
patrón y permite tomar decisiones acertadas, fiables y precisas. La estrategia para la intercepción de piezas en
movimiento está basada en el método de predicción, planeación y ejecución de las trayectorias. El sistema se
implementa en una plataforma LabVIEW, en donde se programa la aplicación centrada en una interfaz
gráfica de monitoreo, que le permite al usuario conocer el estado de inspección del proceso y enviar las
señales de control requeridas para la ejecución de trayectorias del robot manipulador. Con este trabajo de
investigación se busca promover en la industria metal mecánica el uso de herramientas que permitan ejecutar
tareas de inspección y manipulación de objetos dentro de un plan de proceso en una celda flexible de
manufactura.
Abstract.
This research work presents the development and implementation of a system for interception of moving
parts, by designing a quality control station oriented dimensional inspection of metal parts, using artificial
vision techniques and the development of strategies for planning trajectories of a robot with six degrees of
freedom ABB IRB 1600. The vision system consists in a set of devices, it is charge to capture images and
processing for verifying the dimensional characteristics of parts, the system performs its analysis based on a
piece pattern and it can make good decisions, reliable and accurate. The strategy for interception of moving
parts is based on the method of prediction, planning and execution paths. The system is implemented in a
LabVIEW platform, where the application program focused on a graphical monitoring interface, it allows the
user to know the inspection status of the process and send the control signals required for the execution of
manipulator paths. This research work aims to promote in the metalworking industry the using tools to
perform tasks of inspection and manipulation of objects within a process plan in a flexible manufacturing
cell.
Tesis de Grado
xi
Objetivo General.
Diseñar una estación de control de calidad orientada a la inspección dimensional e intercepción de
piezas en movimiento que no cumplen con requerimientos de calidad, empleando técnicas de visión
artificial y planeación de trayectorias.
Justificación.
En la actualidad, la competencia en el sector industrial exige a los sistemas de producción tener una
mayor capacidad y calidad en sus procesos. Es cada vez más frecuente encontrar industrias que
cuentan con altos grados de automatización en sus procesos de fabricación, mediante la
implementación de celdas de manufactura. El uso de tales sistemas les permite obtener altos grados
de eficiencia en la producción.
El control de calidad es uno de los aspectos más importantes en la competitividad industrial. El alto
costo de la inspección y error humano ha hecho promover y desarrollar sistemas capaces de resolver
las tareas de forma automática. Los sistemas de visión artificial en líneas de producción continúas
permiten una alta fiabilidad en la inspección y aseguran una inspección del 100 % de la producción,
lo que permite garantizar que el producto cumpla con los estándares de calidad exigidos por el
mercado, incremento de velocidades de producción, alta confiabilidad y mayor eficiencia en el
proceso, lo que finalmente se traduce en una reducción de costos.
Un robot industrial es un manipulador multifuncional reprogramable, capaz de mover materias,
piezas, herramientas o dispositivos especiales, según trayectorias variables, programadas para
realizar tareas diversas. Actualmente los manipuladores robóticos desarrollan diversas tareas que se
presentan en los procesos de manufactura, una de ellas se enfoca al caso de estudio, esta es la
intercepción de piezas.
La intercepción de piezas mediante un robot manipulador ofrece grandes ventajas, entre ellas se
encuentran el aumento de utilidades, efectuar tareas repetitivas y complicadas para el ser humano,
realizar tareas peligrosas, aumentar la flexibilidad del proceso, trabajar en un entorno de producción
continua, además de aumentar y mejorar la calidad del proceso.
Tesis de Grado
xii
Se considera que la robótica y los sistemas de inspección visual automática son tecnologías con gran
impacto en las organizaciones industriales. Actualmente, la necesidad de automatizar es una
cuestión de supervivencia para muchas empresas manufactureras que están obligadas a competir con
países cuyos gastos de mano de obra son muy inferiores.
1
111
En este capítulo se presenta de forma breve trabajos de investigación y desarrollos tecnológicos en las áreas de visión artificial, manipulación de objetos y planeación de trayectorias.
ESTADO DEL ARTE
Estado del Arte
2
1. Estado del Arte.
La robótica, la visión artificial y sus aplicaciones, son hoy en día un campo de gran interés.
Investigaciones en estos campos prometen desarrollos avanzados y novedades en muchos aspectos.
Aplicaciones de proyectos que combinan la robótica con la visión artificial son encontradas cada vez
más en nuestros días y cada día son más interesantes, complejos y posibles.
Un robot industrial es un manipulador multifuncional reprogramable capaz de mover materias,
piezas, herramientas, o dispositivos especiales, según trayectorias variables, programadas para
realizar diversas tareas. El propósito de la planeación de movimientos es determinar las secuencias o
trayectorias factibles para llevar a cabo un proceso, así como la descripción matemática que
garantice la efectiva ejecución de una acción específica. De aquí, la descripción del movimiento
puede ser una tarea basada en el espacio de trabajo o en la configuración de sus articulaciones.
En los últimos años los sistemas de visión por computadora se han consolidado como una pieza
fundamental en los sistemas de producción industriales, en este ámbito, las dos aplicaciones más
importantes de la visión han sido la manipulación de objetos (Robótica) y la Inspección Visual
Automática. La visión artificial es una técnica basada en la adquisición de imágenes, generalmente
en dos dimensiones, para luego procesarlas digitalmente con el fin de extraer y medir determinadas
propiedades de las imágenes adquiridas. Se trata, por tanto, de una tecnología que combina las
computadoras con las cámaras para adquirir, analizar e interpretar imágenes de una forma
equivalente a la visión humana.
1.1 Inspección con Visión Artificial.
La visión por computadora es una rama de la inteligencia artificial que tiene como objetivo modelar
matemáticamente los procesos de percepción visual en los seres vivos y generar programas que
permitan simular estas capacidades visuales por computadora. Sus antecedentes se remontan a los
años veinte, cuando se mejoró la calidad de las imágenes digitalizadas de los periódicos, enviadas
por cable submarino entre Londres y Nueva York (González&Woods, 2002).
Estado del Arte
3
Se puede decir que la Visión Artificial (VA) describe la deducción automática de la estructura y
propiedades de un mundo tridimensional posiblemente dinámico, bien a partir de una o varias
imágenes bidimensionales del mundo. Las imágenes pueden ser monocromáticas (de niveles de gris)
o colores y provenir de una o varias cámaras e incluso cada cámara puede ser estacionaria o móvil.
Las estructuras y propiedades del mundo tridimensional que se pretende deducir en visión artificial
incluyen no sólo sus propiedades geométricas, sino también sus propiedades materiales, algunos
ejemplos de propiedades geométricas son la forma, tamaño y localización de los objetos mientras
que las propiedades de los materiales son su color, iluminación, textura y composición. Si el mundo
se modifica en el proceso de formación de la imagen, necesitaremos inferir también la naturaleza del
cambio, e incluso predecir el futuro.
La entrada a un sistema de visión artificial es una imagen obtenida por un elemento de adquisición,
mientras que su salida es una descripción de la escena, la cual ha sido obtenida a partir de la imagen.
Por un lado, esta descripción debe estar relacionada de algún modo con aquella realidad que produce
la imagen y por el otro debe contener toda la información requerida para la tarea de interacción con
el medio ambiente que se desea llevar a cabo, por ejemplo mediante un robot. Esto es, la descripción
depende en alguna forma de la entrada visual y debe proporcionar información relevante y utilizable
por el robot.
Tal como se describe en (Mundy, 1998), en la última década los sistemas de visión por computadora
se han consolidado como una pieza fundamental en los sistemas de producción de las industrias. En
este ámbito industrial se han identificado dos grandes categorías donde la visión por computadora
puede aplicarse. La primera categoría es la referente al control visual de ensamblaje robótico, que
proporciona la retroalimentación visual a un brazo robot, mientras ejecuta una tarea de ensamblado
u otras. La segunda categoría es la inspección visual automática, la cual consiste en emplear un
sistema de visión para verificar la calidad de los productos que han sido manufacturados.
En los procesos de inspección, una de las tecnologías que mejores resultados ha tenido es la visión
artificial, ya que es una alternativa electrónica a las inspecciones manuales o humanas.
En (Santiago, 2007) se mencionan algunos de los principales beneficios de esta tecnología, uno de
ellos es asegurar una inspección casi del 100 % de la producción, lo que permite garantizar que el
producto a ser vendido cumpla con los estándares de calidad exigidos por el mercado; incremento de
Estado del Arte
4
velocidades de producción, alta confiabilidad y mayor eficiencia en el proceso, lo que finalmente se
traduce en una reducción de costos para el productor.
El amplio espectro de aplicaciones cubierto por la visión artificial, se debe a que permite extraer y
analizar información espectral, espacial y temporal de los distintos objetos. La información espectral
incluye frecuencia (color) e intensidad (tonos de gris), la información espacial se refiere a aspectos
como forma y posición (una, dos y tres dimensiones) y la información temporal comprende aspectos
estacionarios (presencia y/o ausencia) y dependientes del tiempo (eventos, movimientos, procesos).
La mayoría de las aplicaciones de la visión artificial pueden ser clasificadas por el tipo de tarea
como se menciona en (Alvarez, 2009), a continuación se describe brevemente esta clasificación:
a. La medición o calibración se refiere a la correlación cuantitativa con los datos del diseño,
asegurando que las mediciones cumplan con las especificaciones del diseño. Por ejemplo, el
comprobar que un cable tenga el espesor recomendado.
b. La detección de fallas es un análisis cualitativo que involucra la detección de defectos o
artefactos no deseados, con forma desconocida en una posición desconocida. Por ejemplo,
encontrar defectos en la pintura de un auto nuevo, o agujeros en hojas de papel.
c. La verificación es el chequeo cualitativo de que una operación de ensamblaje ha sido llevada
a cabo correctamente. Por ejemplo, que no falte ninguna tecla en un teclado, o que no falten
componentes en un circuito impreso.
d. El reconocimiento involucra la identificación de un objeto con base en descriptores
asociados con el objeto. Por ejemplo, la clasificación de cítricos (limones, naranjas,
mandarinas, etc.) por color y tamaño.
e. La identificación es el proceso de identificar un objeto por el uso de símbolos en el mismo.
Por ejemplo, el código de barras, o códigos de perforaciones empleados para distinguir hule
de espuma de asientos automotrices.
f. El análisis de localización es la evaluación de la posición de un objeto. Por ejemplo,
determinar la posición donde debe insertarse un circuito integrado.
g. Guía significa proporcionar adaptativamente información posicional de retroalimentación
para dirigir una actividad. El ejemplo es el uso de un Sistema de Visión para guiar un brazo
Robótico mientras suelda o manipula partes.
Estado del Arte
5
Tal como se describe en (Forero, 2008), las posibles aplicaciones de la visión industrial en la
fabricación moderna son prácticamente infinitas. En cada industria, los objetivos de calidad se hacen
cada vez más estrictos, los volúmenes de producción aumentan y las exigencias de mejora de la
productividad son continuas. Si una característica visual se puede ver utilizando una cámara, es
posible utilizar un sistema de visión para inspeccionarla, medirla, verificarla o guiarla.
En la actualidad, los posibles errores en un sistema de inspección visual automático son
compensados por medio de una inspección visual realizada por un operador humano. Si bien es
cierto, que la inspección visual humana es muy flexible y se puede adaptar a situaciones nuevas de
una manera muy rápida, también es sabido que, tanto la diferencia existente en la capacidad y
experiencia de las personas que examinan, como la fatiga y la monotonía de este trabajo, hacen que
la inspección visual humana sea de una eficiencia inconstante y muchas veces poco segura, es por
esta razón que el control de calidad hoy en día apunta a ser 100% automático (Wilson et al., 1996).
En el trabajo de (Newman&Jain, 1995), se menciona que actualmente existen múltiples sistemas de
inspección de superficies, sin embargo en ningún caso existe una metodología completa que permita
independientemente de las características del proceso, configurar el sistema de inspección visual
automatizado. Los trabajos publicados referentes a desarrollos y aplicaciones de los sistemas de
inspección automáticos, muestran soluciones particulares atendiendo únicamente a las necesidades y
condiciones de la inspección, de tal forma que casi la totalidad de los métodos de inspección
desarrollados son específicos al producto que se desea examinar, por lo que un método diseñado
para reconocer las fallas en un producto, difícilmente servirá para detectar las fallas en otro producto
que tenga otra forma o color.
Para ejemplificar lo antes mencionado, se muestra en la Tabla 1.1 diversas aplicaciones
documentadas en los últimos años, en las que se observa una amplia gama de técnicas tanto en el
procesamiento de imágenes, y en la clasificación de fallas.
Estado del Arte
6
Tabla 1.1 Métodos de Inspección de Calidad con el empleo de Sistemas de Visión Artificial y sus Aplicaciones.
Aplicación Técnica
Cuero
Filtros morfológicos y redes neuronales, esta técnica es
descrita en (Kwak et al., 2000).
Filtro Gabor y métodos de umbral adaptivo, esta técnica es
descrita en (Tsa&Wu, 2000)
Alimentos
Polinomios de Zernike (naranjas) , esta técnica es descrita
en (Recce et al., 1998).
Clasificación geométrica (papas) , esta técnica es descrita
en (Heinemann et al., 1996).
Características de Textura, PCA, mediante rayos X (bolsas
de alimentos congelados) , esta técnica es descrita en
(Patel et al., 1994).
Textiles
Características de Texturas, Transformación KL, esta
técnica es descrita en (Mamic&Bennamoun, 2000).
Características de Texturas, y correlación, esta técnica es
descrita en(Bodmarova et al., 2000).
Vidrio
Diferencia en la polarización de fase (metal / no metal) ,
esta técnica es descrita en (Chen, 1998).
Filtros morfológicos (superficie de monitores de TV), esta
técnica es descrita en (Daut&Zhao, 1993).
Detección de bordes con operador Sobel, esta técnica es
descrita en (Wilder, 1989).
Fotoluminosencia, esta técnica es descrita en (Ajò et al.,
2000).
Tubos
Ultrasonido, esta técnica es descrita en (Monchalin et al.,
1998).
Sistema experto, esta técnica es descrita en (Kang et al.,
1998).
Estado del Arte
7
Continúa Tabla 1.1
Papel Lija
Filtro Gabor y métodos de umbral adaptivo, esta técnica es
descrita en (Tsa&Wu, 2000).
Madera Dura Tomografía computarizada, esta técnica es
descrita en (Bhandarkar et al., 1999).
Corcho Clasificación de características geométricas, esta técnica
es descrita en (Gonzalez Adrados et al., 2000).
Soldaduras
Laminografía, esta técnica es descrita en (Sankaran et al.,
1998).
Tomografía computarizada, esta técnica es descrita en
(Neubauer, 1997).
Ultrasonido, clasificación mediante sistema experto, esta
técnica es descrita en (Dunlop&McNab, 1997).
Redes neuronales, esta técnica es descrita en (Kim et al.,
1999).
Láminas de Silicio (wafer) Reconocimiento de patrones estadístico, esta técnica es
descrita en (Cunningham&MacKinnon, 1998).
Tarjetas de circuitos impresos (PCB)
Lógica difusa y redes neuronales (PCB) , esta técnica es
descrita en (Ko&Cho, 2000).
Diferencia en la polarización de fase (metal / no metal) ,
esta técnica es descrita en (Chen, 1998).
Filtro n-tuple, esta técnica es descrita en (Ouslim&Curtis,
1996).
Piezas fundidas en aluminio
(castings)
Filtros morfológicos, rayos X, esta técnica es descrita en
(Filbert et al., 1987).
Análisis multi-imagen, rayos X, esta técnica es descrita
en(Mundy, 1998).
Inspección CAD, rayos X, esta técnica es descrita en
(Noble et al., 2008).
Estado del Arte
8
Cabe mencionar que en el control de calidad mediante métodos de inspección con el empleo de
sistemas de visón artificial, se usa en la gran mayoría de casos una sola imagen de la escena que se
desea analizar. Si bien es cierto que en algunos casos es necesario tomar varias imágenes de un
producto desde distintos puntos de vista, éstas por lo general no son correspondientes entre sí, es
decir lo que está presente en una imagen no aparece en las otras. De esta manera, estos métodos de
inspección realizan un análisis de cada una de las imágenes de una manera individual, en el que no
es posible considerar la información de otras imágenes.
1.2 Inspección Dimensional por Medio de Visión Artificial.
Ciertos procesos industriales requieren que los productos manufacturados sean inspeccionados para
asegurar que algunas medidas de calidad y fiabilidad se cumplan. El proceso de inspección,
dependiendo de lo que se quiera inspeccionar puede llegar a ser complejo, tal como se menciona en
(González, 2007), la inspección dimensional tiene infinidad de aplicaciones industriales, a lo largo
de los años se han empleado diferentes instrumentos para la medición e inspección en distintas
aplicaciones, en la siguiente lista se muestran algunos instrumentos de medición e inspección
empleados en la industria metal-mecánica.
• Cinta métrica.
• Escuadra.
• Flexómetro.
• Goniómetro.
• Gramil.
• Micrómetro.
• Nivel.
• Pie de rey.
• Regla.
• Reloj comparador.
Tal como se describe en (González&Woods, 2002), la inspección visual dimensional resulta de
máximo interés considerar el hecho de que los objetos geométricos a inspeccionar van a admitir una
serie de valores de tolerancia en las correspondientes medidas de los elementos geométricos que los
componen. A manera de ejemplo, se mencionan de forma breve diversas aplicaciones, las primeras 4
son descritas en (Alvarez, 2009), la quinta en (Mery et al., 2003) y la sexta en (Iborra et al., 2001),
estas aplicaciones han sido desarrolladas en los últimos años y se han enfocado al estudio de
sistemas de visión artificial aplicados a la inspección de calidad, estas aplicaciones han sido
desarrollado de forma exitosa en el sector industrial.
Estado del Arte
9
a. Detección de Grietas en Desbastes de Acero a la Salida de Colada Continua: Se
emplazan perfilómetros de C.H. a 1150 mm de distancia para obtener la topografía de la
superficie en caliente (800ºC). Con la implementación de este sistema se detectan las grietas
superficiales de al menos 100 mm de longitud y 1 mm de profundidad.
b. Medición de Diámetros de Engranajes Tipo Sincro de Automoción: Mediante una base
de rotación se gira un engranaje, y con un equipo de medida sin contacto se obtiene su
contorno. El sistema instalado en línea toma pieza, mide diámetro a 3 alturas (precisión ± 1
μm), y clasifica en menos de 6 segundos.
c. Detección de Defectos de Pintado y Corte en Espejos: Se adquiere mediante una cámara
lineal las imágenes de las faltas de plateado de los espejos al pasar por un camino de rodillos
con retro-iluminación. Con la implementación de este sistema se logra la detección de
defectos mayores que 1.5 mm.
d. Detección y Medición de Flecha en Chapa de Acero en Tren de Bandas en Caliente: Se
obtiene mediante un sistema de cámaras el borde de la chapa cuando pasa por un tren de
laminación. Con la implementación de este sistema se mide la curvatura lateral de la chapa a
partir de las imágenes.
e. Sistema de Inspección Visual Automatizado de Cigüeñales: En este proyecto se presenta
el desarrollo de un sistema de inspección automatizado para el control de calidad de
cigüeñales basado en arquitectura de hardware reconfigurable, el cual es capaz de detectar
grietas, poros e intrusiones. La unidad de adquisición de imágenes utiliza la tecnología
basada en el empleo de fibras ópticas. Los algoritmos para el procesamiento de imágenes son
desarrollados e implementados mediante el uso de una tarjeta de propósito general con
arquitectura reconfigurable, basadas en el empleo de DSP’s y FPGA’s, para lo cual se hace
uso de una tarjeta Aristotle de Miro Tech. Asimismo, la aplicación cuenta con un sistema
actuador externo, utilizando para ello un robot de seis grados de libertad.
f. Inspección Automática de Objetos Mediante Procesamiento Digital de Imágenes
Múltiples: El objetivo principal de este proyecto fue contribuir al desarrollo de la
automatización de la inspección visual utilizada en el control de calidad de productos.
Estado del Arte
10
Para esa tarea se propuso el diseño de un método general de inspección automática mediante el
análisis de varias imágenes de la misma escena tomadas desde distintos puntos de vista. Los
investigadores pretendían que el método desarrollado fuera automáticamente adaptable a diversos
objetos y situaciones.
El método propuesto por este grupo de investigadores detecta automáticamente dos tipos de fallas:
las anomalías en la homogeneidad de la superficie del objeto (incrustaciones de materiales extraños,
resquebrajaduras, agujeros, etc.) y deformaciones en la geometría del objeto. Para el primer tipo de
fallas, desarrollaron un algoritmo que consiste principalmente en tres pasos: detección de fallas
hipotéticas en cada imagen tomada mediante un algoritmo rápido, sencillo y único, cuyos
parámetros fueron ajustados automáticamente en una fase de aprendizaje, discriminación de las
fallas hipotéticas que no guarden correspondencia física con fallas hipotéticas de otras imágenes y
análisis final de las fallas detectadas. Para el segundo tipo de fallas, realizaron una reconstrucción
geométrica tridimensional del objeto a partir de sus vistas. Con el fin de evaluar la existencia de
algún tipo de deformación, el objeto reconstruido era comparado con un modelo patrón CAD del
objeto a inspeccionar.
Tanto para la evaluación de las condiciones de correspondencia como para la reconstrucción
tridimensional del objeto se utilizaron herramientas desarrolladas en la teoría de Visión Artificial
(Computer Vision), tales como tensores y restricciones multifocales, que incorporan funciones
lineales de computo rápido. Los algoritmos diseñados se probaron en laboratorio bajo diversas
condiciones reales de operación. Eso permitió comparar y determinar las ventajas y problemas que
origina la inspección automática basada en el análisis multi-imagen, frente a técnicas más
convencionales basadas en el procesamiento de una sola imagen. Se obtuvo como resultado un
método general de inspección automática, que sea de fácil adaptación a distintas piezas, con índices
de detección de fallas elevados (más del 95%) y con bajos índices de falsas alarmas (menos del
3%).
La implementación de estos sistemas han reflejado ventajas positivas para la industria, en (Mery,
2002) se encuentran resumidas en los siguientes puntos:
• Mejora en la calidad de los productos y de los procesos involucrados.
Estado del Arte
11
• Mejora en la cantidad de los productos y de los procesos involucrados: mayor rapidez en
la inspección de un producto y aumento de producción de un proceso.
• Integración en el entorno automatizado, dotando de información sensorial en la
realización de un proceso automatizado.
• Sustitución de los operarios, evitando su presencia en entornos peligrosos (térmicos,
riesgo físico, lumínico, etc.).
• Incremento de la fiabilidad de los procesos, eliminando criterios subjetivos que aparecen
en la ejecución de tareas rutinarias, como en los cambios de turno o a lo largo de un
turno.
1.3 Robot Industrial.
Un robot industrial debe ser capaz de realizar cualquier tarea repetitiva en una línea de producción.
Para este fin, generalmente se requiere de su posicionamiento en el espacio, del posicionamiento de
un efector final, ya sea una herramienta o una pinza, y de su accionamiento. Existen también
algunos otros tipos de robots como por ejemplo los “móviles”, los cuales cuentan con dispositivos
como ruedas, orugas o patas que les permiten desplazarse de una determinada manera dependiendo
de su programación. Por otro lado, los denominados “robots médicos” esencialmente son prótesis
para discapacitados; estos robots se acoplan al cuerpo y responden completamente a las órdenes del
usuario logrando de algún modo igualar con ellos los movimientos y funciones de la parte que
suplen.
El uso de robots día a día se hace más popular y en muy distintos ámbitos, teniendo tal impacto que
actualmente sus aplicaciones se encuentran desde el campo del entretenimiento hasta grandes
proyectos de investigación a nivel mundial. El empleo de los robots se ha hecho tan popular dado
que son unos excelentes auxiliares en tareas con alto grado de riesgo o trabajos que suelen ser
desagradables para el ser humano. Los robots pueden realizar tareas monótonas y repetitivas durante
las 24 horas sin bajar su rendimiento, es por ello que una de las industrias que más usa robots es la
industria del automóvil. Dentro de sus áreas principales están las líneas de ensamblado, el transporte
de piezas, así como los procesos de soldadura y pintura.
Estado del Arte
12
La idea de construir máquinas que pudieran realizar los trabajos del ser humano se remonta a muy
tempranas épocas y tomó mucho mayor auge con la automatización de las fábricas del siglo XVIII,
apareciendo en escena máquinas para poner las tapas a las botellas de refresco o para el enlatado por
ejemplo. En (http://www.robots.com, 2009) se describe uno de los trabajos que precedieron a la
robótica industrial, este fue desarrollado en 1951 por Raymond Goertz para la Comisión de Energía
Atómica, se trataba de un brazo articulado teleoperado.
En 1954 el inventor estadounidense George Devol desarrolló un brazo mecánico que se podía
programar para efectuar tareas específicas, lográndose así el primer gran avance en busca de obtener
una máquina que tuviera la versatilidad del brazo humano. Es también Devol quien inventa el
término Universal Automation, que después es reducido a Unimation y en 1956 se convierte en el
nombre de la primera compañía de robots. Ésta última fundada en asociación con Joseph
Engelberger, quien es considerado el padre de la robótica.
El primer robot comercial fue introducido por Planet Corporation en 1959, controlado por fines de
carrera y levas. En 1960 apareció el primer robot Unimate, basado en la transferencia de artículos
programada de Devol. Éste utilizaba los principios del control numérico y era de transmisión
hidráulica. El título de “primer robot industrial instalado en una línea de producción” se debate entre
los robots Unimate de Ford Motor Compay y de General Motorsa ambos fueron instalados en 1961,
en el caso de Ford, el robot fue implementado para atender una máquina de fundición en troquel. En
1966, un robot especialmente equipado para realizar pintura por pulverización fue instalado por
Trallfa, una firma noruega (Groover et al., 1989).
Muchos otros avances se fueron dando y en muy distintas partes del mundo se fue extendiendo la
euforia por la robótica y la inteligencia artificial, y cada vez se iban implementando nuevos
conceptos. Así, en 1968 el Stanford Research Institute desarrolló un robot de tipo móvil que poseía
algunas capacidades de visión usando una cámara de televisión, un localizador óptico y sensores de
contacto, este fue llamado Shakey. Además este sistema tan innovador tenía la peculiaridad de
reconocer y reaccionar a ciertos comandos de voz (palabras en inglés).
El primer robot industrial controlado por una minicomputadora disponible comercialmente fue
desarrollado en 1973 por Richard Hohn para la Cincinnati Milacron Corporation. Fue llamado T3,
la herramienta del mañana, más tarde en 1975, el ingeniero mecánico estadounidense Victor
Estado del Arte
13
Scheinman, de la universidad de Stanford desarrolló un sistema manipulador verdaderamente
flexible conocido como “Brazo Manipulador Universal Programable” (PUMA por sus siglas en
inglés). Este sistema era capaz de tomar un objeto y moverlo hacia posición deseada que estuviera a
su alcance, colocándolo en cualquier orientación. Así, se puede decir que la base de los robots
actuales es el mismo principio básico multiarticulado del PUMA.
El primer robot SCARA (Selective Compliance Assembly Robot Arm) fue creado como un prototipo
revolucionario, en 1978, en el laboratorio del Profesor Hiroshi Makino, en la Universidad de
Yamanashi en Japón. El SCARA de 4 grados de libertad (GDL) fue diseñado como ningún otro
robot de ese tiempo, era simple, veloz y preciso(Thorpe, 1999). De ahí en adelante, los robots se han
desarrollado vertiginosamente, tal como se describe en (Barrientos, 2006), el desarrollo ha venido
evolucionando, como se muestra en la tabla 1.2.
Tabla 1.2 Clasificación de los robots según T. M. Knasel.
Generación Nombre Tipo de Control Grado de
Movilidad Usos Frecuentes
1 (1982) Pick & place Fines de carrera, aprendizaje.
Ninguno Manipulación, servicio de máquinas.
2 (1984) Servo Servocontrol, trayectoria continua, programación condicional.
Desplazamiento por vía
Soldadura, pintura.
3 (1989) Ensamblado Servos de precisión, visión, tacto.
Guiado por vía Ensamblado, desbardado.
4 (2000) Móvil Sensores inteligentes. Patas, ruedas Construcción, mantenimiento.
5 (2010) Especiales Controlados con técnicas de IA.
Andante, saltarín Militar, espacial.
1.4 La Visión Artificial en Robótica.
El sentido de visión en los robots industriales es el elemento esencial que permite a estos presentar
características de adaptabilidad, flexibilidad y capacidad de reorganización. La visión juega un papel
muy importante en los sistemas de manipulación y en general en los sistemas flexibles de
Estado del Arte
14
manufactura, pues permite la retroalimentación sensorial precisa que hace ampliar las capacidades
de los robots. La visión artificial proporciona la descripción del estado que guardan los elementos
del puesto de trabajo, así como su evolución en el tiempo, información que el sistema de control del
robot utiliza en la generación y modificación de sus planes de trabajo, en el monitoreo de la
ejecución de tareas y en la detección de errores e imprevistos.
El empleo de sistemas de visión artificial en la manipulación controlada sensorialmente permite, por
un lado resolver problemas de conocimiento a priori del ambiente, precisión, costo y fiabilidad y por
otro lado, permite a los robots industriales evolucionar en ambientes variables. En este contexto, un
sistema de visión artificial debe realizar las siguientes funciones:
• Reconocimiento de piezas o conjuntos, así como sus posiciones de equilibrio.
• Determinación de la posición y orientación de piezas con relación a una base de referencia.
• Extracción y ubicación de rasgos significativos de las piezas, con objeto de establecer
servomecanismos visuales que permitan su manipulación robotizada.
• Inspección en línea y verificación de que el proceso ha sido realizado satisfactoriamente
(control de calidad sin contacto).
Por otro lado, las aplicaciones de la visión artificial en los robots controlados sensorialmente, son
básicamente los siguientes:
• Manipulación de objetos aislados acarreados por bandas transportadoras: normalmente las
piezas tienen una posición de equilibrio única y presentan una proyección fácilmente
identificable (aun cuando esté en contacto con otra pieza) mediante técnicas de
reconocimiento.
• Manipulación de objetos acomodados aleatoriamente en contenedores: en este caso los
objetos presentan una proyección no única, parcialmente oculta, su posición y orientación
son aleatorias. Por tanto requiere de una potencia de cálculo mayor y de algoritmos de
tratamiento de imágenes más sofisticados.
• Ensamble: esta tarea se resume en los siguientes 4 puntos: permite identificar piezas,
tomarlas y presentarlas en una forma predeterminada para ensamblarlas con otras piezas;
provee retroalimentación visual en el posicionamiento dinámico de las herramientas de
Estado del Arte
15
ensamble; provee control continuo del órgano terminal sobre la trayectoria deseada; y
permite la inspección en línea.
El problema de la generación (o planeación) de trayectorias es planteado en (Spong et al., 2006) de
la siguiente manera:
“A partir de los puntos, o de las configuraciones, inicial y final; encontrar una serie de movimientos
articulares para alcanzar la posición final con una trayectoria válida y libre de colisiones”.
Otro planteamiento es el descrito en (Russell&Norvig, 2004), quien dice lo siguiente:
“Encontrar un camino para llegar de una configuración a otra en el espacio libre”.
A manera de ejemplo, se describen brevemente diversas aplicaciones publicadas en los últimos años,
en las que han estudiado planeación de trayectorias en robots manipuladores.
a. Generación de Trayectorias para un Robot Manipulador Utilizando Procesamiento de
Imágenes y Splines: (Cajiga, 2005) presenta una propuesta para generar trayectorias para
un robot manipulador, específicamente el robot manipulador RV-2AJ de Mitsubishi. A partir
de una imagen específica que contenga un objeto, se le aplica un procesamiento de imagen
para obtener el contorno del objeto. Con ayuda de este contorno y aplicando una
interpolación por splines, se realizan los cálculos de la cinemática inversa para generar la
trayectoria del contorno del objeto que debe seguir el manipulador. Se desarrolla un software
de simulación en 3D para las pruebas del algoritmo y la visualización de los movimientos del
manipulador. Finalmente, se realizan las pruebas reales con el robot manipulador.
b. Planeación de Trayectorias para un Robot en Celdas de Manufactura: En ese trabajo
(Martínez, 2006) desarrolla estrategias para la planeación de trayectorias de un robot dentro
de celdas de manufactura. El trabajo forma parte del desarrollo de una celda robotizada por
un brazo mecánico de 5 grados de libertad sobre una plataforma móvil, en el desarrollo de
este proyecto se trabajo en dos etapas, la planeación de trayectorias para el carro y la
planeación de trayectorias para el brazo.
Estado del Arte
16
Donde cada una de las etapas consta de un modelo matemático, estrategias de solución e
implementación y simulación de las estrategias en una herramienta software desarrollada en Matlab.
c. Estudio de la Cinemática de un Robot Industrial: (Hernández, 2007) describe la
cinemática directa e inversa de un manipulador robótico de seis grados de libertad, en ese
proyecto desarrollaron un controlador para robots de 6 grados de libertad. El avance del
proyecto que presentan se refiere a los modelos cinemáticos directo e inverso de un robot
alemán marca CLOOS modelo Romat 56, así mismo se presenta el desarrollo de un
simulador de los movimientos del robot.
d. Sistemas de Visión Artificial para el Reconocimiento y Manipulación de Objetos
Utilizando un Brazo Robot: (Newman&Jain, 1995) presentan un brazo robot que permite
seleccionar objetos (tornillos, tuercas, llaveros, etc.) que se encuentran en una mesa,
independiente de la posición y orientación. El problema se aborda mediante un esquema de
Visión Artificial. Se implementan técnicas de aprendizaje y clasificación automáticas para un
sistema de visión. Una vez reconocida y localizada una pieza determinada, se dará la señal
de mando al manipulador robótico para que este lo recoja y lo coloque en una posición
determinada previamente por el operador. Por tanto, mediante Visión Artificial y el brazo
Robot Scorbot ERIX, se reconoce y manipulan las piezas.
e. Sistemas de Localización y Posicionamiento de Piezas Utilizando Visión Artificial:
(Zato, 2005) presenta un sistema automatizado para reconocimiento, localización y
posicionamiento de piezas de fabricación para la industria aeronáutica. Dichas piezas,
compuestas de un material flexible, son depositadas de forma automática en una mesa de
trabajo de provenientes de un proceso de automatización anterior. La tarea a
desarrollar por el sistema consiste en una primera identificación y validación de la pieza
para, posteriormente, encontrar su localización exacta y conducirla a una posición y
orientación final gracias a un robot de tipo pórtico. Para alcanzar la precisión requerida, el
sistema dispone de dos cámaras de visión artificial; la primera obtiene una panorámica
general, y la segunda, moviéndose conjuntamente con el efector del pórtico, permite tomar
una imagen muy próxima al objeto y por tanto mucho más precisa (Zato, 2005).
Estado del Arte
17
f. Aplicación de un Control Predictivo Generalizado Neuronal a Manipuladores
Robóticos con una Trayectoria Cúbica y Perturbaciones Aleatorias: En la aplicación del
control (Temurtas et al., 2005) presentan un sistema una sola entrada única salida (SISO) y el
diseño de un control neuronal predictivo generalizado (NGPC), el cual fue aplicado a un
robot manipulador de tres conjuntos con una trayectoria cúbica y perturbaciones aleatorias.
El modelado de la dinámica del manipulador robótico se llevó a cabo mediante las
ecuaciones de Euler-Lagrange. Un programa de simulación fue preparado en Delphi 5.0.
Todos los cálculos para el modelo de la dinámica de manipulador, GPC SISO, y NGPC
SISO se realizaron en una PC con CPU de 733 MHz que utiliza este programa. El algoritmo
de estimación de parámetros utilizados en el SISO GPC es de tipo recursivo. El algoritmo
utilizado en la reducción al mínimo de SISO NGPC es de tipo Newton Raphson. Según los
resultados de simulación, los resultados del algoritmo de NGPC SISO eran mejores que los
del algoritmo de SISO GPC. Esto significa que el algoritmo de NGPC SISO combina las
ventajas del control predictivo y el de la red neuronal (Temurtas et al., 2005).
1.5 Método de Intercepción de Objetos en Movimiento.
Para el óptimo funcionamiento de los robots es necesario que su ambiente de trabajo esté
rígidamente estructurado, es decir, si va a tomar un objeto que se encuentra sobre una banda,
requiere que la pieza esté siempre en la misma posición para que la tarea sea realizada
satisfactoriamente. Esto muestra una marcada dependencia a un ambiente completamente definido y
a la especificación de todos los puntos a seguir por robot para su posterior programación. Es
indispensable definir todos los parámetros de la tarea a realizar por el manipulador programable, ya
que no es capaz de detectar variaciones en su ambiente de trabajo, ni tomar decisiones para resolver
dichas incertidumbres.
Las tendencias actuales en la robótica están enfocadas a dotar de cierta inteligencia a los robots
industriales, haciendo énfasis a las siguientes áreas de investigación:
• Mejor percepción del ambiente.
• Mejor adaptación a las tareas.
• Mejor desempeño dinámico y movilidad.
Estado del Arte
18
Para esto se han utilizado diferentes tecnologías como lo son:
• Visión artificial.
• Lógica difusa.
• Redes neuronales.
• Algoritmos genéticos.
• Arquitectura basada en comportamiento.
La intercepción de objetos en movimiento es una de las tareas principales que desarrolla un
manipulador robótico. La tarea principal en la intercepción de objetos en movimiento se centra en el
desarrollo de planeación de trayectorias, la cual depende del tipo de movimiento del objeto a ser
interceptado, el objetivo puede ser considerado como de movimiento rápido o lento, un objeto de
movimiento lento se mueve en una trayectoria continua con una velocidad constante o aceleración.
En tal caso, una predicción precisa del movimiento del objetivo es posible y un método de
intercepción puede ser empleado. Para objetos de movimientos rápidos, el objetivo se mueve de
manera aleatoria, haciendo que la intercepción se convierta en una tarea difícil.
1.5.1 Métodos de Intercepción de Objetos con Trayectorias Predecibles.
• Planeación de Trayectorias Punto a Punto (PTP): Esta técnica provee una solución para
la intercepción de objetos móviles, cuyo movimiento es conocido de antemano. La solución
óptima es un lazo abierto (la entrada de control está derivada como función del tiempo
solamente, es decir, en función del estado instantáneo del objeto en movimiento), el
algoritmo más común está basado en cálculo diferencial. Una de las técnicas de lazo abierto
para planeación de trayectorias para robots manipuladores se fundamenta en la restricción de
los torques en los actuadores, usando algoritmos evolutivos (Rena&Zalzala, 1996).
• Técnica de Predicción, Planeación y Ejecución (PPE): Esta técnica es adecuada para la
intercepción de objetos en movimiento con una velocidad baja, los cuales viajan a través de
trayectorias definidas. Si la trayectoria del objeto es predecible de manera confiable, no hay
necesidad para una retroalimentación continua del estado del objeto al módulo de planeación
de trayectorias (Kimura et al., 1992).
Estado del Arte
19
Las técnicas de PPE involucran de manera general tres pasos:
1. Predicción de la trayectoria del objeto.
2. Planeación de la trayectoria del robot para la intercepción del objeto.
3. Ejecución de la trayectoria planeada.
• Técnica de Planeación y Predicción Adaptativa: En las técnicas de PPE, el movimiento de
los objetos es predicho y la trayectoria del robot para su intercepción es planeada y
ejecutada. Esta aproximación puede ser usada en modo adaptativo (APPE), donde los tres
pasos de las técnicas PPE son repetidas para garantizar una intercepción exitosa del objeto.
La característica principal de las técnicas de APPE es la selección, evaluación y
actualización del punto de intercepción, el cual puede ser escogido en cualquier punto de la
trayectoria predicha del objeto (Rena&Zalzala, 1996).
El primer paso de la planeación de trayectorias es la generación de una curva tiempo-trayectoria, que
describe los tiempos de trayectoria del robot desde el punto inicial hasta el punto de intercepción
localizado en la trayectoria predicha del móvil, G(t). La intercepción de esta curva con la
correspondiente curva tiempo-trayectoria del móvil en el punto G(t) proporciona un punto cercano al
punto óptimo de intercepción (ver figura 1.1).
Figura 1.1 Punto de intercepción óptimo (Mehrandezh, 1999).
Estado del Arte
20
La trayectoria del móvil es continuamente predicha y actualizada en el tiempo, por consecuencia el
punto óptimo de intercepción es actualizado y la trayectoria del robot a este punto es replaneada en
el tiempo de aplicación.
1.5.2 Intercepción de Objetos en Movimiento con Trayectorias Aleatorias.
La intercepción de objetos en movimiento con trayectorias aleatorias puede ser resuelta con técnicas
basadas en visión artificial, estas han sido empleadas para la intercepción de objetos con un
movimiento rápido, donde la predicción de su trayectoria no es confiable. Una trayectoria APPE
tiene que cambiar radicalmente cuando el objeto cambia su trayectoria constantemente, actualizar
continuamente la trayectoria del robot es computacionalmente incómodo y genera retardos
significativos en el sistema. Para objetos de movimientos aleatorios no es posible predecir de
manera confiable su trayectoria, una intercepción confiable más que una rápida intercepción, es el
principal objetivo en intercepción de objetos de movimiento aleatorio.
Tal como se describe en (Lei&Ghosh, 1993) con técnicas de visión artificial, la posición del objeto
es obtenida de imágenes tomadas por una cámara y procesadas mediante un computador, la posición
y velocidad del objeto es predicha para compensar el retardo inherente al proceso de obtener la
posición del móvil de las imágenes del computador. Diferentes métodos han sido sugeridos para la
predicción de la velocidad del objetivo. En técnicas visuales la diferencia entre el estado
(localización y velocidad) del efector y el estado del objeto es la función objetiva a ser minimizada.
La trayectoria del robot es generada por medio de un controlador, el cual disminuye esta diferencia
(o una función relacionada con esta diferencia) sobre cada periodo de control. Para que la
intercepción ocurra, la diferencia debe ser reducida a cero antes de que el objetivo salga del espacio
de trabajo del robot. El planeador de trayectorias determina la trayectoria deseada (submeta) un
periodo de control antes del controlador. Los puntos de la trayectoria deseada para el movimiento
del manipulador son generados en línea basándose en la posición actual y velocidad relativas del
efector final y la posición y velocidad del objeto en movimiento.
Estado del Arte
21
1.6 Planeación de Trayectorias.
En una aplicación Industrial estamos generalmente interesados en mover la herramienta desde una
posición-orientación a una nueva posición -orientación. En operaciones de “tomar y colocar” no es
importante saber que trayectoria sigue la herramienta desde un punto al otro (salvo si se desea
optimizar el tiempo y evitar colisiones con posibles objetos en el espacio de trabajo). Hay otros
casos, sin embargo, en los cuales es esencial seguir una trayectoria determinada, algunos ejemplos
sencillos y prácticos son: soldadura autógena, corte de materiales, etc.
En (Iñigo&Vidal, 2006) se menciona que una trayectoria determinada puede aproximarse por
pequeños segmentos lineales, en cuyo caso debe considerarse el error máximo permisible entre la
trayectoria exacta y la aproximación por cada segmento. La planeación de trayectorias consiste en
lograr que el efector final siga una ruta especificada, (Yong&Narendra, 1992) dividen este tipo de
problema en dos casos generales: Obstáculos estáticos y Obstáculos dinámicos.
La planeación de trayectorias con obstáculos estáticos se convierte en uno de los problemas
fundamentales para lograr que un sistema robótico logre la intercepción de objetos en movimiento,
la solución del problema de planificación de movimiento o planificación del camino (path planning)
específica un camino geométrico libre de colisiones, especificado en el espacio de configuraciones o
directamente en el espacio cartesiano, en este problema se consideran los obstáculos estáticos y los
rangos de trabajo de las articulaciones del robot.
La planeación de trayectorias con obstáculos dinámicos se caracteriza por que en el área de trabajo
podría encontrarse más de un robot cooperando en la tarea o los obstáculos se encuentran en
movimiento, también es posible que se desee tomar objetos móviles. Ante tales circunstancias el
entorno es variable y la planificación de movimiento será en función de la geometría y del tiempo,
por lo que no sólo se deberá obtener el camino a recorrer por el robot, sino también las
características de ése movimiento (velocidades y aceleraciones).
Estado del Arte
22
1.7 Objetivos del Proyecto y Organización de la Tesis.
El objetivo de esta tesis es diseñar una estación de control de calidad orientada a la inspección
dimensional e intercepción de piezas en movimiento que no cumplen con requerimientos de calidad,
empleando técnicas de visión artificial y planeación de trayectorias.
1.7.1 Planteamiento Del Problema.
El presente proyecto, surge de la necesidad de diseñar una estación de control de calidad y
manipulación de piezas en un entorno de producción continuo, implementado una comunicación
eficiente entre ambos subsistemas.
Los problemas principales para el desarrollo del trabajo se describen a continuación:
Diseño del una estación de control de calidad: El diseño de este subsistema consiste en seleccionar
las técnicas y las etapas pertinentes para el reconocimiento de patrones, con la finalidad de
desarrollar un algoritmo de reconocimiento de defectos dimensionales en piezas metálicas,
empleando técnicas de visión artficial,
Desarrollo del algoritmo para la planeación de trayectorias del robot: El desarrollo del algoritmo
para la planeación de trayectorias tiene como objetivo que el robot con su posición y orientación
inicial, así como la descripción del espacio de trabajo, debe encontrar la trayectoria para así poder
obtener una posición y orientación final, en este caso específicamente interceptar en movimiento las
piezas metálicas que no cumplan con los requerimientos de calidad establecidos.
Comunicación eficiente entre el subsistema de procesamiento y el subsistema de actuación: El
problema se presenta en la diferencia de valor de voltaje que manejan las señales de control en
ambos susbsistemas, por lo que es necesario utilizar circuitos de acoplamiento de señales que
permitan obtener el voltaje deseado en cada una de las terminales sin dañar los dispositivos
utilizados.
Estado del Arte
23
1.7.2 Objetivos Específicos.
a. Diseñar un algoritmo para la adquisición y procesamiento digital de imágenes, mediante el
uso del Lenguaje Gráfico de Programación (LabVIEW).
b. Implementar las etapas de un esquema de visión artificial.
• Obtención de la imagen.
• Preprocesamiento.
• Segmentación.
• Extracción de Características.
• Clasificación.
a. Establecer el modelo cinemático del robot IRB 1600 ABB.
b. Diseñar un algoritmo para la intercepción de piezas, empleando técnicas de planeación de
trayectorias, mediante el uso del Lenguaje Gráfico de Programación (LabVIEW).
c. Establecer una comunicación eficiente en el sistema, mediante el diseño de la interfaz de
comunicación entre el controlador del robot manipulador IRB 1600 ABB y una tarjeta de
adquisición de datos NI USB 6009.
Estos objetivos específicos nacen de la identificación de tareas específicas a realizar, para poder
alcanzar y satisfacer plenamente el objetivo general del proyecto. Para lograr alcanzar los objetivos
aquí planteados, este trabajo de tesis se encuentra organizado de la siguiente manera:
En el Capítulo 1, se presenta el estado del arte con el objetivo de enfatizar parte de las
investigaciones y aplicaciones que se han desarrollando durante los últimos años, en las áreas de
visión artificial, manipulación de objetos y planeación de trayectorias.
En el Capítulo 2, se presentan las generalidades, tienen el propósito de dar a la investigación un
sistema coordinado y coherente de conceptos y proposiciones que permitan abordar el problema. Se
trata de integrar al problema dentro de un ámbito donde éste cobre sentido, incorporando los
Estado del Arte
24
conocimientos previos relativos al mismo y ordenándolos de modo tal que resulten útil al trabajo de
tesis.
En el Capítulo 3, de desarrolla el diseño conceptual, esta fase permite construir los conceptos que
son necesarios para el total y eficaz diseño del sistema de intercepción en movimiento de piezas
metálicas que no cumplen con requerimientos de calidad.
En el Capítulo 4, se desarrolla el diseño a detalle, esta fase permite convertir el concepto idealizado
en un modelo concreto, se define cómo ha de implementarse el sistema, mediante un conjunto de
especificaciones, cálculos, algoritmos, diagramas, modelos y prototipos en un sistema físico.
En el Capítulo 5, se realiza la interpretación de resultados obtenidos durante la implementación del
sistema y se establecen las conclusiones sobre el trabajo realizado, así como una serie de propuestas
con el propósito de desarrollar innovación sobre la misma línea de investigación.
25
En este capítulo se presentan las generalidades sobre los sistemas de visión artificial, describiendo los elementos físicos y las etapas que conforman este, así mismo se presentan las generalidades del sistema de intercepción de objetos, abarcando temas requeridos como son cinemática y representaciones geométricas.
GENERALIDADES
222
Generalidades
26
2. Generalidades.
La robótica, visión artificial y sus aplicaciones, son hoy en día un campo de gran interés,
investigaciones en estos campos prometen desarrollos avanzados y novedades en muchos aspectos.
Aplicaciones de proyectos que combinan la robótica con la visión artificial son encontradas cada vez
más en nuestros días y cada día son más interesantes, complejos y posibles.
Para una mayor autonomía de los sistemas robóticos industriales, se está dando un auge de
tecnologías alternativas como la visión artificial, lógica difusa, redes neuronales y algoritmos
genéticos, etc. Así como una fusión de varias de estas tecnologías, que le permiten a un robot mayor
capacidad de decisión ante perturbaciones e incertidumbres en su espacio de trabajo.
La visión artificial es una técnica basada en la adquisición de imágenes, generalmente en dos
dimensiones, para luego procesarlas digitalmente, con el fin de extraer y medir determinadas
propiedades de las imágenes adquiridas. Se trata, por tanto, de una tecnología que combina las
computadoras con las cámaras para adquirir, analizar e interpretar imágenes de una forma
equivalente a la visión humana.
2.1 Visión Artificial.
Tal como se describe en (Sossa, 2006), para que un organismo biológico o mecánico pueda
interactuar eficientemente con el medio ambiente que se encuentra a su alrededor, es necesario que
cuente con los sistemas adecuados de adquisición y de análisis automático de información que
percibe. El reconocimiento de objetos, es una de las técnica existentes que proyectan un mayor
interés integrando diversos dispositivos, para efectuar tareas que presentan un riesgo de salud e
integridad física para el ser humano ó facilitan procesos ofreciendo ventajas como rapidez,
eficiencia, eficacia y economía.
La Visión Artificial es una de las tecnologías con mayor grado de implantación entre las empresas
manufactureras, especialmente como herramienta de control de calidad de la producción. Las
aplicaciones que tiene la Visión Artificial son muy variadas y diferentes en función de cada realidad
Generalidades
27
industrial y de cada producto final a controlar. La visión artificial es una técnica basada en la
adquisición de imágenes, generalmente en dos dimensiones, para luego procesarlas digitalmente
mediante algún tipo de CPU (computadora, microcontrolador, DSP, etc), con el fin de extraer y
medir determinadas propiedades de la imágenes adquiridas. Se trata, por tanto, de una tecnología
que combina las computadoras con las cámaras para adquirir, analizar e interpretar imágenes de una
forma equivalente a la inspección visual humana (Platero, 2009).
La Visión Artificial (VA) describe la deducción automática de la estructura y propiedades de un
mundo tridimensional posiblemente dinámico, bien a partir de una o varias imágenes
bidimensionales del mundo. Las imágenes pueden ser monocromáticas (de niveles de gris) o
colores, pueden provenir de una o varias cámaras e incluso cada cámara puede estar estacionaria o
móvil. Las estructuras y propiedades del mundo tridimensional que se quieren deducir en visión
artificial incluyen no sólo sus propiedades geométricas, sino también sus propiedades materiales.
(Platero, 2009) describe algunos ejemplos de propiedades geométricas son la forma, tamaño y
localización de los objetos, ejemplos de propiedades de los materiales son su color, iluminación,
textura y composición. Si el mundo se modifica en el proceso de formación de la imagen,
necesitaremos inferir también la naturaleza del cambio, e incluso predecir el futuro. La entrada a un
sistema de VA es una imagen obtenida por un elemento de adquisición, mientras que su salida es
una descripción de la escena, la cual ha sido obtenida a partir de la imagen. Por un lado, esta
descripción debe estar relacionada de algún modo con aquella realidad que produce la imagen y por
el otro debe contener toda la información requerida para la tarea de interacción con el medio
ambiente que se desea llevar a cabo, por ejemplo mediante un robot.
En la figura 2.1 se muestra a manera de ejemplo algunas de las aplicaciones industriales dentro del
área de visión artificial y de manera específica en la figura 2.2 se muestra una aplicación con un
sistema de inspección visual automatizado orientado a la inspección de soldaduras con arco.
La visión artificial, tiene como objetivo:
• Reconocer objetos, fijos o en movimiento.
• Ubicar el lugar en el cual se encuentra un objeto.
• Definir morfológica o físicamente un objeto.
Generalidades
28
• Identificar los puntos o forma geométrica de un objeto para su posterior manipulación.
• Realizar mediciones para poder identificar la distancia que guarda un objeto con respecto de
otro.
Figura 2.1 Aplicaciones Industriales de Visión Artificial (Platero, 2009).
Figura 2.2 Sistema de Inspección Visual Automatizado (Buscara, 2006).
Generalidades
29
2.2 Inspección Visual Automática.
Tal como se describe en (Malamas et al., 2003), la inspección es un proceso de comparación de
piezas, objetos individuales o materiales continuos fabricados según una norma, con vistas al
mantenimiento de cierto nivel de calidad. Los sistemas de inspección visual automática se basan en
la visión artificial para realizar el proceso de inspección, la inspección visual automática es un
proceso de supervisión de calidad de productos que empleando técnicas de procesamiento digital de
imágenes y reconocimientos de patrones podemos determinar si un producto se desvía de las
especificaciones de fabricación establecidas en una organización por alguna norma reguladora o
especificaciones del propio diseño. Estas especificaciones se fijan de acuerdo a criterios de
seguridad, funcionalidad o estética.
La inspección visual automática ofrece ventajas, como el ser un sistema independiente de factores
humanos, permitir distinguir detalles no visibles por el ojo humano, permitir trabajar fuera del
espectro visible y obtener una mayor velocidad de inspección. Un sistema de inspección visual
automática tiene la característica principal de aplicar los mismos criterios de calidad a cada una de
las unidades inspeccionadas, permitiendo una alta fiabilidad en la inspección, en la figura 2.3 se
muestra a manera de ejemplo un sistema de inspección visual automática, empleado en la industria
de bebidas, este sistema verifica el nivel correcto y etiquetado de las botellas. Cada aplicación de
control de calidad por visión puede ser diferente y requerir instrumentos y algoritmos muy
particulares.
Figura 2.3 Sistema de Inspección Visual Automática Empleado en la Industria de Bebidas (Forero, 2008).
Generalidades
30
2.3 Etapas del Sistema de Visión Artificial.
En el trabajo desarrollado por (Pérez, 2007) un sistema de visión artificial se compone de 2
subsistemas:
1. Subsistema de Percepción.
2. Subsistema de Actuación.
El subsistema de percepción está constituido por un sistema de adquisición de imagen y un sistema
de análisis de imagen, en la figura 2.4 se muestra un diagrama de bloques del subsistema de
percepción.
Figura 2.4 Diagrama de Bloques del Subsistema de Percepción.
(Herrero, 2005) explica que una vez analizada la imagen, esta es procesada mediante algoritmos
para transformarla en información, la información es utilizada por el sistema de actuación. El
subsistema de actuación está constituido por actuadores externos del proceso, existen diversos
actuadores que pueden ser receptores de la información proveniente del sistema de percepción, por
ejemplo: sistemas robóticos, sistemas eléctricos, sistemas neumático, sistemas electro neumáticos,
Generalidades
31
etc. (ver figura 2.5). En este capítulo para el caso de estudio del subsistema de actuación se
presentan las generalidades de manipuladores robóticos.
Figura 2.5 Diagrama de Bloques del Subsistema de Actuación.
En la figura 2.6 se muestran los elementos que componen un sistema de visión artificial, cada uno de
ellos se describe en los siguientes subcapítulos.
Figura 2.6 Elementos de un Sistema de Visión Artificial (Herrero, 2005).
Generalidades
32
2.4 Adquisición de la Imagen.
El sistema de adquisición de la imagen permite la captura y adquisición de la imagen, básicamente
es la construcción del sistema de formación de las imágenes. Su objetivo es realzar mediante
técnicas fotográficas (iluminación, óptica, cámaras, filtros, pantallas), las características visuales de
los objetos (formas, texturas, colores, sombras, etc.,). El sistema de adquisición de imágenes está
formado por los elementos que se describen a continuación (Herrero, 2005).
2.4.1 Sensor de Imagen.
El sensor de imagen es el encargado de recoger las características del objeto bajo estudio. Los
sensores de imagen son componentes sensibles a la luz que modifican su señal eléctrica en función
de la intensidad luminosa que perciben. La tecnología más habitual en este tipo de sensores es el
CCD (charge coupled devices o dispositivos de acoplamiento de carga) donde se integran en un
mismo chip los elementos fotosensibles y el conjunto de puertas lógicas y circuitería de control
asociada. En éstos, la señal eléctrica que transmiten los fotodiodos es función de la intensidad
luminosa que reciben, su espectro y el tiempo de integración (tiempo durante el cual los fotodiodos
son sensibles a la luz incidente).
Otra tecnología que está empezando a extenderse son los sensores CMOS (complementary metal
oxide semiconductor) dada las ventajas de éstos sobre los CCD, y la reducción de precios de estos
dispositivos. En cuanto al rango dinámico (rango de amplitud entre los valores máximos y mínimos
que un elemento puede producir, medido en decibeles) se pasa de los 70dB de los sensores CCD a
los 120dB de los sensores CMOS, valor más cercano a los 200dB del ojo humano, lo que facilita la
auto adaptación en el propio chip al brillo existente en el entorno. El sensor CMOS puede amplificar
de forma individual la respuesta de los píxeles en función de sus respectivas condiciones de
iluminación. El acceso multipíxel permite configurar individualmente distintos intervalos de tiempo
de integración mejorando la calidad de imagen mediante la selección del mejor tiempo de
exposición de cada píxel. En la figura 2.7 se presenta un sensor de visión artificial DVT para
aplicaciones a Color.
Generalidades
33
Figura 2.7 Sensor de Visión Cognex DVT 535C.
2.4.2 Iluminación.
La fuente de iluminación es un aspecto de vital importancia ya que debe proporcionar unas
condiciones de iluminación uniformes e independientes del entorno, facilitando además, si es
posible, la extracción de los rasgos de interés para una determinada aplicación, además es un
elemento relevante en los sistemas de visión artificial ya que afectan de forma crucial a los
algoritmos de visión que se vayan a utilizar bajo esas condiciones. Una iluminación arbitraria del
entorno no suele ser aceptable ya que muy probablemente se obtengan imágenes con un bajo
contraste, reflexiones especulares, además de sombras y detalles espurios. Los objetivos de una
iluminación adecuada son básicamente independizar las condiciones del entorno y resaltar los
rasgos de interés de una determinada aplicación.
En un sistema de visión artificial, la mejor imagen es aquella que tiene el mayor contraste donde las
áreas de interés se destacan del fondo (background) intrascendente. En los siguientes dos apartados
se describen brevemente las distintas formas de iluminar un objeto tal como se describe en
(Saco&Montini, 2005c), teniendo en cuenta en el primer apartado las técnicas de iluminación
existentes para distintas aplicaciones y en el segundo apartado el enfoque a partir de los dispositivos
comerciales que se utilizan en la actualidad.
Generalidades
34
2.4.2.1 Técnicas de Iluminación.
a. Iluminación Posterior (Backlight).
La iluminación posterior permite delinear el contorno de las piezas, minimiza la visibilidad de
gabinetes traslúcidos y permite visualizar perforaciones pasantes. Esta técnica brinda un contraste
muy alto y es fácil de implementar. En las imágenes tomadas bajo esta técnica, el fondo
(background) aparece uniformemente blanco y el objeto se visualiza mediante se silueta. Dentro de
las técnicas de iluminación posterior se pueden encontrar la difusa y la direccional, en la iluminación
posterior difusa los rayos de luz se transmiten en diversos ángulos, mientras que en la iluminación
posterior direccional, un colimador hace que todos los rayos de luz se propaguen en direcciones
paralelas.
b. Iluminación Frontal Oblicua y Direccional.
La dirección de la iluminación, conocida como el ángulo de incidencia, es él ángulo formado por el
plano normal a la superficie y el rayo incidente. Cuando los haces de luz forman un ángulo de 20°
con la superficie, se puede maximizar el contraste en objetos con relieves de manera que los bordes
aparezcan brillantes frente al fondo oscuro que forman las superficies planas del objeto. En la
iluminación frontal direccional, el ángulo entre los rayos incidentes y la superficie es de 30º, lo que
reduce un poco el contraste pero incrementa la cantidad de información obtenible de las superficies
planas.
c. Iluminación Frontal Axial (Difusa).
Mediante esta técnica se puede iluminar desde el mismo eje de la cámara con luz uniforme,
incluyendo el centro de la imagen. Permite iluminar uniformemente superficies reflectivas, realza
detalles grabados y crea contraste entre superficies especulares y difusas.
d. Iluminación de Día Nublado (Cloudy Day Ilumination, CDI).
La CDI suministra iluminación difusa en la misma dirección que el eje de la cámara. Ha sido
diseñada para las aplicaciones más complejas y difíciles con superficies especulares irregulares que
necesitan luz completamente uniforme. La CDI proporciona una completa uniformidad, con un
máximo de desviación del 10% en el campo de visión.
Generalidades
35
CDI es el sistema más perfecto de iluminación difusa que existe, el efecto que se consigue con este
tipo de iluminación es el de "Un Día Nublado". La CDI ha sido diseñada para aplicaciones críticas
que están basados en objetos con superficies altamente especulares donde cualquier reflexión puede
confundirse con un defecto.
e. Iluminación de campo oscuro (dark field).
Se trata de luz directa de alta intensidad que se hace incidir sobre el objeto con un ángulo muy
pequeño respecto a la superficie donde descansa. De esta manera se consigue que sobre superficies
que presentan hendiduras o elevaciones, éstas interfieran en la trayectoria de la luz produciéndose
zonas brillantes. Esta técnica consiste en hileras de LEDs montadas a 75° o 90º con respecto al eje
óptico. La iluminación puede ser continua o pulsante (strobe). La iluminación de campo oscuro
realza el contraste de los detalles superficiales tales como grabados, marcas y defectos.
f. Array de Luces.
La luz producida por el array de luces llega directamente al objeto. Produce un gran contraste y
resalta las texturas, relieves y fisuras del objeto iluminado debido a que cualquier relieve, por
pequeño que sea, produce una sombra muy definida.
g. Iluminación de Campo Claro (o Brillante).
La fuente de luz es uniforme y difusa (suave) e incide con un pequeño ángulo sobre la superficie
reflectante del objeto a inspeccionar. La cámara se coloca con el mismo ángulo de forma que
obtenga una imagen reflejada de la fuente de luz en la superficie el objeto inspeccionado. Una
posible imperfección en el mismo producirá una mancha oscura en la imagen captada por la cámara.
La mancha oscura que se apreciará en la cámara es debida a la variación del ángulo de reflexión que
produce la imperfección con respecto al ángulo de la luz incidente, perdiéndose el reflejo de la
fuente de iluminación.
2.4.2.2 Dispositivos Comerciales Empleados en Sistemas de Iluminación.
A continuación, el enfoque estará puesto en los dispositivos comerciales que se utilizan en la
actualidad, estos son: Fibra óptica, Fluorescentes, LED y Láser. Cada uno de ellos tiene sus ventajas
y desventajas con respecto a los otros, dependiendo del tipo de aplicación deberá utilizarse uno u
otro.
Generalidades
36
a. Iluminación por Fibra Óptica.
La iluminación por fibra óptica es actualmente la que puede proporcionar la luz más intensa de todos
los tipos de iluminación que se utilizan en visión artificial. La idea básica es conducir la luz
procedente de una bombilla halógena o de xenón que se encuentra en una fuente de iluminación a
través de un haz de fibras ópticas que termina en un adaptador específico para cada tipo de
aplicación. Estos adaptadores pueden tener forma circular, lineal, puntual o de panel y puede ser de
distintos tamaños y dimensiones.
b. Iluminación por Fluorescentes.
Los tubos fluorescentes se usan en muchas ocasiones en aplicaciones de visión artificial, aunque
debido a su limitada variedad de formas también es limitada su utilización. Para las aplicaciones
industriales es importante que los fluorescentes funcionen a alta frecuencia al menos a 25kHz. En
aplicaciones de visión no pueden utilizarse fluorescentes estándar debido a su efecto de parpadeo,
que dependiendo de la velocidad a la que la cámara funcione puede verse reflejado en la intensidad
de la imagen capturada.
c. Iluminación por LED.
Para aplicaciones donde no se requiera una gran intensidad de iluminación se puede utilizar la
iluminación por LED (Light Emiting Diodes). Los LED proporcionan una intensidad de iluminación
relativa a un coste muy interesante y además tienen una larga vida, aproximadamente 100.000 horas.
Otra consideración a tener en cuenta es que sólo requieren un cable de alimentación y no un haz de
fibra óptica que en ocasiones es muy delicado.
d. Iluminación por Láser.
La iluminación mediante láser o luz estructurada se utiliza normalmente para resaltar o determinar la
tercera dimensión de un objeto. El método utilizado es colocar la fuente de luz láser en un ángulo
conocido con respecto al objeto a iluminar y con respecto a la cámara. Viendo la distorsión de la luz
puede interpretarse la profundidad de los objetos a medir.
2.4.3 Tarjeta de Captura o Adquisición de Imágenes.
Las tarjetas de captura o adquisición de imagen es la encargada de digitalizar y transferir la imagen
de la cámara a la memoria de la computadora a fin de realizar el procesamiento adecuado de la
Generalidades
37
escena. Las principales características de las tarjetas digitalizadoras son precio, controlabilidad,
resolución, velocidad y almacenaje, en el sentido de sí los algoritmos de visión pueden tener acceso
rápido y fácilmente a los datos. Existen tarjetas que proporcionan sus propios buffers de memoria y
otras que utilizan la memoria del ordenador vía DMA (Direct Memory Access), muchas de ellas
permiten un preprocesamiento previo de las imágenes, donde el número de tareas implementadas en
hardware es muy variable.
2.5 Análisis de la Imagen.
Es la parte inteligente del sistema, su misión consiste en aplicar las transformaciones necesarias y
extracciones de información de las imágenes capturadas, con el fin de obtener los resultados para los
que haya sido diseñado. Los algoritmos relacionados con visión artificial son muy variados y
abarcan numerosas técnicas y objetivos. Tal como se describe en (Pérez, 2007) los pasos más
comunes que describen el análisis o procesamiento de imagen se muestran en la figura 2.8.
Figura 2.8 Etapas de un Proceso de Reconocimiento de Formas.
2.5.1 Preprocesado.
Cuando se adquiere una imagen mediante cualquier sistema de captura por lo general esta no es
directamente utilizable por el sistema de visión. La aparición de variaciones en intensidad debidas al
ruido por deficiencias en la iluminación o la obtención de imágenes de bajo contraste, hace
necesario un preprocesamiento de la imagen con el objetivo fundamental de corregir estos
problemas, además de aplicar aquellas transformaciones a la imagen que acentúen las características
que se deseen extraer de las mismas, de manera que se facilite las operaciones de las etapas
posteriores.
Filtrado o Procesamiento Segmentación Extracción de
CaracterísticasReconocimiento
de Patrones
Generalidades
38
Tal como se describe en (Herrero, 2005) se mencionan las técnicas de preprocesamiento más
habituales:
a. Conversión de los Niveles de Gris.
Su objetivo es la mejora de la calidad de la imagen, se trata la conversión de una imagen en color a
escala de grises, el equivalente a la luminancia de la imagen. Como sabemos el ojo percibe distintas
intensidades de luz en función del color que se observe, esto es debido a la respuesta del ojo al
espectro visible la cual se puede observar en la figura 2.9, por esa razón el cálculo de la escala de
grises o luminancia de la imagen debe realizarse como una media ponderada de las distintas
componentes de color de cada pixel.
Figura 2.9 Longitud de Onda de Componentes RGB de una imagen (Herrero, 2005).
La ecuación de la luminancia es la expresión matemática de ese fenómeno, y los factores de
ponderación de cada componente de color nos indican la sensibilidad del ojo humano a las
frecuencias del espectro cercanas al rojo, verde y azul.
Y = R * 0.3 + G * 0.5 + B * 0.11 (2.1)
Por tanto, para realizar esta conversión basta con aplicar la ecuación 2.1 a cada pixel de la imagen de
color, entonces resultará una nueva matriz de un byte por pixel que daría la información de
luminancia.
Generalidades
39
b. Transformaciones Geométricas.
Los objetivos de ésta son la corrección de la perspectiva y la reconstrucción tridimensional de los
objetos de la escena. Las transformaciones Geométricas modifican la relación espacial entre píxeles,
en términos del procesamiento de imágenes digitales una transformación geométrica consiste de dos
operaciones básicas tal como es descrito en (González&Woods, 2002):
• Una transformación espacial que define la reubicación de los píxeles en el plano imagen.
• Interpolación de los niveles de grises, los cuales tienen que ver con la asignación de los
valores de intensidad de los píxeles en la imagen transformada.
c. Transformación del Histograma.
Las transformaciones del histograma pueden facilitar la segmentación de objetos de la imagen,
aunque habitualmente sólo sirve para modificar el contraste de la imagen y el rango dinámico de los
niveles de gris. Un histograma es un gráfico estadístico que permite representar la distribución de
intensidad de los píxeles de una imagen, es decir, el número de píxeles que corresponde a cada
intensidad luminosa. Por convención, el histograma representa el nivel de intensidad con
coordenadas X que van desde lo más oscuro (a la izquierda) a lo más claro (a la derecha), el
histograma y la paleta asociados con la imagen se muestran en la figura 2.10, respectivamente:
Figura 2.10 Transformación del Histograma (González&Woods, 2002).
Generalidades
40
La modificación de un histograma se representa generalmente en una curva llamada curva tonal, esta
indica la modificación total de los componentes de la imagen con los valores iniciales en el eje X y
los valores después de la modificación en el eje Y, la diagonal indica la curva sobre la cual los
valores iniciales equivalen a los valores finales, es decir, cuando no se ha producido una
modificación. Los valores a la izquierda del valor promedio en el eje X representan los píxeles de
"luz", mientras que los que se encuentran a la derecha representan los píxeles oscuros, en la figura
2.11 se muestra una gráfica que ilustra la modificación del histograma.
Figura 2.11 Modificación de un Histograma (González&Woods, 2002).
De esta manera, si la curva de modificación del histograma se encuentra debajo de la diagonal, los
píxeles tendrán valores menores y por lo tanto, se habrán aclarado. Por el contrario, si la curva está
por encima de la diagonal, los píxeles se habrán oscurecido. Ambos casos se muestran en la figura
2.12.
Figura 2.12 Gráficas Ilustrativa de Aclaración y Obscurecimiento de Pixeles (González&Woods, 2002).
Generalidades
41
d. Filtrado Espacial y Frecuencial.
Dado que pueden suponer una importante modificación de la imagen original, generalmente sólo se
consideran filtrados aquellas operaciones realizadas en el dominio espacial o frecuencial que
suponen transformaciones pequeñas de la imagen original.
Tal como se describe en (Saco&Montini, 2005a) el filtrado espacial es la operación que se aplica a
una imagen para resaltar o atenuar detalles espaciales con el fin de mejorar la interpretación visual o
facilitar un procesamiento posterior y constituye una de las técnicas comprendidas dentro del realce
de imágenes. Ejemplos comunes incluyen aplicar filtros para mejorar los detalles de bordes en
imágenes o para reducir o eliminar patrones de ruido. El filtrado espacial es una operación "local" en
procesamiento de imagen, en el sentido de que modifica el valor de cada píxel de acuerdo con los
valores de los píxeles que lo rodean, se trata de transformar los niveles de gris originales de tal
forma que se parezcan o diferencien más de los correspondientes a los píxeles cercanos.
Tal como se describe en (Saco&Montini, 2005b) el filtrado en el dominio de la frecuencia se
realiza una transformación de la imagen al dominio de la frecuencia mediante la transformada de
Fourier, esto permite que el filtrado sea más sencillo y pueda ser más preciso en frecuencia, esto se
ilustra en la figura 2.13.
Figura 2.13 Filtrado en el Dominio de la Frecuencia (Saco&Montini, 2005b).
2.5.2 Segmentación.
Cuando ya se dispone de la imagen capturada y filtrada, es necesario aislar o separar los objetos de
interés de la escena. Se pretende por tanto dividir una imagen en diferentes regiones, o dicho de otra
forma, detectar automáticamente los bordes entre los elementos o regiones. El nivel al que se realiza
esta subdivisión depende de la aplicación en particular, es decir, la segmentación terminará cuando
se hayan detectado todos los objetos de interés para la aplicación.
Generalidades
42
Los algoritmos de segmentación de imagen generalmente se basan en dos propiedades básicas de
los niveles de gris de la imagen: discontinuidad y similitud.
Dentro de la primera categoría se intenta dividir la imagen basándonos en los cambios bruscos en el
nivel de gris. Las áreas de interés en esta categoría son la detección de puntos, de líneas y de bordes
en la imagen. Las áreas dentro de la segunda categoría están basadas en las técnicas de umbrales,
crecimiento de regiones, y técnicas de división y fusión tal como se describe en (Martín, 2002).
2.5.3 Extracción de Características.
Con los objetos a estudiar ya definidos es necesario extraer una serie de medidas que los
caractericen adecuadamente, en forma de vector de características. Dado que las características
relevantes son a menudo desconocidas, habitualmente se introducen muchas características
candidatas para intentar representar mejor las clases, aún cuando muchas de ellas puedan ser
parciales o completamente redundantes o irrelevantes. Los descriptores deben de ser independientes
del tamaño, localización u orientación del objeto y deben ser suficientes para discriminar objetos
entre sí. Los descriptores se basan en la evaluación de alguna característica del objeto tal como se
describe en (Herrero, 2005), por ejemplo:
• Descriptores unidimensionales : códigos de cadena, perímetro, forma del perímetro.
• Descriptores bidimensionales : área, momentos de inercia, etc.
• Descriptores específicos : número de agujeros, área de agujeros, posición relativa de
agujeros, rasgos diferenciadores de un objeto, etc.
Conviene destacar las propiedades más importantes que deben tomarse en cuenta en la elección o
extracción de las características, estos son:
a. Discriminación: valores numéricos diferentes para objetos de clases diferentes.
b. Fiabilidad: cambios numéricos pequeños para objetos de una misma clase.
c. Incorrelación: nunca debe utilizarse características que dependan fuertemente entre sí, ya que
no añaden información. Se ha de tener la máxima información con el mínimo número de
características.
Generalidades
43
d. Cálculo en Tiempo Real: este es un requisito que puede llegar a ser determinante en ciertas
aplicaciones de tiempo real, ya que las características deben calcularse en un tiempo
aceptable.
e. Invarianza: frente a transformaciones geométricas como rotación, traslación, escalado.
f. Dimensionalidad: el tamaño del vector de características debe de ser menor que la del patrón
original. Las características deben representar una codificación óptima de la entrada,
perdiendo la información que no sea muy importante, se debe reflejar lo esencial del objeto.
2.5.4 Reconocimiento de Patrones.
Una definición formal de reconocimiento de patrones es descrita en (Herrero, 2005) y es definida
como “la categorización de datos de entrada en clases identificadas por medio de la extracción de
características significativas o atributos de los datos extraídos de un medio ambiente que contiene
detalles irrelevantes”. Matemáticamente hablando, la clasificación consiste en la partición del
espacio n-dimensional definido por las características de un objeto en varias regiones, donde cada
región corresponde a una clase.
Un sistema de reconocimiento de patrones tiene uno de los siguientes objetivos:
• Identificar el patrón como miembro de una clase ya definida (clasificación supervisada).
• Asignar el patrón a una clase todavía no definida (clasificación no supervisada,
agrupamiento o clustering).
El reconocimiento automático de formas gira en torno a varios conceptos claves que se definen
algunos a continuación:
• Patrón: un patrón es una descripción cuantitativa o estructural de un objeto o alguna entidad
de interés.
• Clase: una clase de patrones es un conjunto de patrones que comparten algunas propiedades.
• Vector de características: la composición de varias características en un vector se denomina
vector de características, esta contiene la medida de las características de un patrón, puede
estar formado de números binarios o valores reales. Un vector característica define puntos en
un espacio n-dimensional.
Generalidades
44
2.6 Generalidades Robótica.
Un robot conjunta diferentes disciplinas como la electrónica, la mecánica y los sistemas
computacionales, exigiendo una plena y bien definida interacción entre cada una de ellas. Cada
disciplina aporta elementos fundamentales que son los que determinan la efectividad en el
desempeño del robot. En una forma general, el sistema de un robot puede ser descrito por cuatro
componentes básicos: manipulador, dispositivos sensoriales, controlador y una unidad de conversión
de energía tal como se describe en (Sucar, 2008).
El manipulador se define como los elementos mecánicos de un robot que producen su adecuado
posicionamiento y operación. Puede ser dividido en dos secciones, cada una con una función
diferente:
• Brazo y el cuerpo: El brazo y el cuerpo de un robot se utilizan para mover la posición de las
piezas y herramientas en un sobre de trabajo. Ellos se forman de tres articulaciones
conectados por enlaces de gran tamaño.
• Muñeca: La muñeca se usa para orientar las piezas o herramientas en el lugar de trabajo. Se
compone de dos o tres articulaciones compacto.
Los dispositivos sensoriales proporcionan información tanto de la situación del propio robot
(posición, velocidad, aceleración) como del entorno (terreno, obstáculos), permitiendo una
retroalimentación al sistema a fin de lograr un control apropiado del manipulador. El controlador es
el encargado de proporcionar la “inteligencia” al robot, causando el desempeño deseado en el
manipulador. Básicamente el controlador está formado por:
a. El programa o la serie de instrucciones a ejecutar.
b. Un mediador que interpreta las instrucciones, haciendo posible la interacción con los otros
componentes del controlador.
c. Una interfaz para obtener los datos de los sensores instalados en el sistema.
d. Una interfaz que permite la interacción entre la unidad de energía y el manipulador.
Generalidades
45
Finalmente, la unidad de conversión de energía se refiere a los elementos electrónicos necesarios
para pasar una señal del controlador a un nivel de energía con un significado capaz de lograr una
respuesta en los motores. Es evidente que para lograr un sistema coherente debe existir una
interacción transparente entre los distintos componentes involucrados. En la mayoría de los sistemas
de robótica, si no es que en todos, es muy importante establecer los movimientos o comportamiento
que tendrá el robot durante la ejecución de la tarea asignada, el robot debe saber de alguna manera
que secuencia de movimientos debe llevar a cabo, este problema de saber que secuencia de
movimientos debe llevar acabo y en qué dirección debe moverse el robot para lograr un objetivo
específico se le conoce como planificación de trayectorias.
2.6.1 Definición Robótica Industrial.
Un robot industrial es un manipulador multifuncional reprogramable capaz de mover materias,
piezas, herramientas, o dispositivos especiales, según trayectorias variables, programadas para
realizar tareas diversas. Esta definición ligeramente modificada ha sido adoptada por la
Organización Internacional de Estándares (ISO) que define al robot industrial como: “Manipulador
multifuncional reprogramable con varios grados de libertad, capaz de manipular materias, piezas,
herramientas o dispositivos especiales según trayectorias variables programadas para realizar tareas
diversas”.
2.6.2 Robot Manipulador.
Tal como se describe en (Santos&Duro, 2005) un robot manipulador es definido por el Robot
Institute of America de la siguiente manera:
“Un manipulador reprogramable y multifuncional diseñado para mover material, partes y
herramientas, o dispositivos especializados, mediante movimientos variables programados para la
realización de una variedad de tareas” (ver figura 2.14).
Generalidades
46
Figura 2.14 Manipulador ABB - IRB1600.
Esta definición provee una idea acerca de lo que puede ser considerado un robot manipulador, aún a
pesar de que existan otras clases de robots, son los manipuladores los que han encontrado el campo
de aplicación con mayor impacto para la robótica, básicamente se puede entender por robot
manipulador como un brazo mecánico operando bajo el mando de una computadora. Un robot
manipulador se compone de eslabones y articulaciones que los unen. Existen dos uniones posibles:
prismática y revoluta. A su vez un manipulador puede ser de cadena abierta, si está formado por una
sucesión lineal de eslabones o en el caso contrario de cadena cerrada (ver figura 2.15).
Figura 2.15 Manipulador de cadena abierta y Manipulador de cadena cerrada (Santos&Duro, 2005).
El análisis de un robot manipulador incluye la descripción del movimiento y de las fuerzas que
intervienen en este, así mismo se busca poder predecir y controlar el comportamiento del sistema. El
estudio del movimiento puede dividirse en cinemática y dinámica. Por un lado, la cinemática atiende
únicamente al movimiento (desplazamientos, velocidades y aceleraciones) entre los eslabones y en
las articulaciones, a su vez la dinámica toma en cuenta las fuerzas que intervienen en el movimiento.
Generalidades
47
Un robot manipulador cuenta con una base que en la mayoría de las aplicaciones se encuentra
anclada, teniendo en cuenta esto, se puede asumir que se encuentra fija y ubicar ahí el sistema
coordenado de referencia. La posición de todas las partes del sistema puede ser descrita en todo
momento a partir de las variables articulares del sistema. Esto plantea un problema inicial, ya que
normalmente la tarea a realizar estará referida en coordenadas cartesianas del espacio de tarea y no
con respecto a las variables articulares del sistema.
2.7 Cinemática.
La cinemática de manipuladores robóticos trata con el estudio analítico de la geometría del
movimiento de un robot con respecto a un sistema de coordenadas de referencia fijo como una
función del tiempo sin considerar las fuerza que originan dicho movimiento. Dentro de esta ciencia
se estudian la posición, la velocidad, la aceleración y todas las demás derivadas de alto orden de las
variables de posición (con respecto al tiempo o a cualquier otra variable) (Craig, 2009).
Figura 2.16 Diagrama a Bloques “Cinemática”.
2.7.1 Cinemática Directa.
Tal como se describe en (Craig, 2009) la cinemática directa se encarga de calcular la posición y
orientación del efector en el espacio de tarea cuando los valores articulares son conocidos.
En (Ollero, 2007) se describe que la cinemática inversa se utiliza fundamentalmente el álgebra
vectorial y matricial para representar y describir la localización de un objeto en el espacio
tridimensional con respecto a un sistema de referencia fijo. Dado que un robot puede considerar
como una cadena cinemática formada por objetos rígidos o eslabones unidos entre sí mediante
articulaciones, se puede establecer un sistema de referencia fijo situado en la base del robot y
describir la localización de cada uno de los eslabones con respecto a dicho sistema de referencia. De
esta forma, el problema cinemático directo se reduce a encontrar una matriz homogénea de
Generalidades
48
transformación T que relacione la posición y orientación del extremo del robot respecto del sistema
de referencia fijo situado en la base del mismo. Esta matriz T será función de las coordenadas
articulares.
2.7.2 Geometría Espacial.
La Geometría Espacial es una parte de la geometría especializada en el estudio de las construcciones
o figuras geométricas en dos o más dimensiones en el espacio. La geometría espacial se basa en un
sistema formado por tres ejes (X,Y,Z) como se muestra en la figura 2.18 y tiene las siguientes
características:
• Ortogonales (perpendiculares 2 a 2)
• Normalizados (las longitudes de los vectores básicos de cada eje son iguales)
• Dextrógiros (el tercer eje es producto vectorial de los otros 2)
Figura 2.17 Representación de un vector en coordenadas cartesianas en 3 dimensiones (Mark W. Spong et al., 2006).
2.7.3 Matriz de Rotación.
Tal como se describe en (Mark W. Spong et al., 2006) y (Craig, 2009) la orientación en el plano está
dada por un ángulo de rotación, y una forma de representar la orientación es mediante las matrices
de rotación y traslación. Se utiliza una matriz de 3x3 para describir las operaciones rotacionales del
sistema ligado al cuerpo con respecto al sistema de referencia y coordenadas homogéneas para
representar vectores de posición en un espacio tridimensional, por lo que las matrices de rotación se
Generalidades
49
ampliaran a matrices de transformación homogénea 4x4 para incluir las operaciones de translación
del sistema de coordenadas ligado al cuerpo.
Esta representación matricial de un elemento mecánico rígido para describir la geometría espacial de
un brazo fue utilizada por primera vez por Denavit y Hartenberg. La ventaja de utilizar la
representación de elementos de D-H es su universalidad algorítmica para derivar las ecuaciones
cinemáticas de un brazo. El sistema de coordenadas OXYZ, esta fijo en el espacio tridimensional y
se considera que es el sistema de referencia. El sistema de coordenadas OUVW está girando con
respecto al sistema de referencias OXYZ (ver figura 2.18).
Figura 2.18 Sistema de referencia OXYZ y solidario al objeto OUVW (Mark W. Spong et al., 2006).
La matriz de transformación necesaria se llama matriz de rotación. La matriz de rotación define la
orientación del sistema OUVW con respecto al sistema OXYZ, recibe el nombre de matriz de
cosenos directores y se trata de una matriz ortonormal, tal que la inversa de la matriz R es igual a su
traspuesta:
(2.2)
La orientación del sistema OUVW, con el eje OU coincidente con el eje OX, vendrá representada
mediante la matriz:
Generalidades
50
(2.3)
Figura 2.19 Rotación sobre el Eje X (Mark W. Spong et al., 2006).
La orientación del sistema OUVW, con el eje OV coincidente con el eje OY, vendrá representada
mediante la matriz:
(2.4)
Figura 2.20 Rotación sobre el Eje Y (Mark W. Spong et al., 2006).
Generalidades
51
La orientación del sistema OUVW, con el eje OW coincidente con el eje OZ, vendrá representada
mediante la matriz:
(2.5)
Figura 2.21 Rotación sobre el Eje Z (Mark W. Spong et al., 2006).
Estas tres matrices se denominan matrices básicas de rotación de un sistema espacial de tres
dimensiones. Las matrices de rotación pueden componerse para expresar la aplicación continua de
varias rotaciones. Así, si al sistema OUVW se le aplica una rotación de ángulo sobre OX, seguida
de una rotación de ángulo sobre OY y de una rotación de ángulo sobre OZ, la rotación global
puede expresarse como:
(2.6)
Generalidades
52
La principal utilidad de esta matriz de rotación corresponde a la representación de la orientación de
sistemas girados únicamente sobre uno de los ejes principales del sistema de referencia.
2.7.4 Coordenadas Homogéneas y Matriz de Transformación.
El concepto de una representación en coordenadas homogéneas en un espacio tridimensional es útil
para desarrollar las transformaciones matriciales que incluyan rotación, traslación, escalado y
transformación de perspectiva. En general la representación de un vector de posición de n
componentes por un vector de n+1 componentes se conoce como representación de coordenadas
homogéneas.
La matriz de transformación homogénea es una matriz de 4x4 que transforma un vector de posición
expresado en coordenadas homogéneas desde un sistema de coordenadas hasta otro sistema de
coordenadas. Una matriz de transformación homogénea se puede considerar que consiste en 4
submatrices:
(2.7)
Donde la submatriz R representa la matriz de rotación, el vector P representa el vector de posición
del origen del sistema de coordenadas rotado con respecto al sistema de referencia, el vector f
representa la transformación de perspectiva y el elemento escalado es el factor de escala global. En
aplicaciones de robótica, el factor de escala será siempre 1.
La matriz de transformación homogénea se puede utilizar para explicar la relación geométrica entre
el sistema ligado al cuerpo OUVW y el sistema de coordenadas de referencia OXYZ, por lo que,
utilizando su concepto, las matrices de rotación presentadas en las ecuaciones 2.8, 2.9 y 2.10 se
pueden ampliar a matrices de rotación homogénea para operaciones de rotación pura, siendo estas
llamadas matriz de rotación homogénea básica como se muestra en las siguientes ecuaciones:
Generalidades
53
(2.8)
(2.9)
(2.10)
El vector de posición P de la matriz de transformación homogénea tiene el efecto de trasladar el
sistema de coordenadas OUVW que tiene ejes paralelos al sistema de referencia OXYZ, pero cuyo
origen está en (dx, dy, dz) del sistema de coordenadas de referencia, esta matriz de transformación
4x4 se llama matriz de traslación homogénea básica.
(2.11)
2.7.5 Representación de Denavit- Hartenberg (D-H).
Tal como se describe en (Craig, 2009) el método descrito es el propuesto por Denavit y Hartenberg,
en el que la representación de un elemento rígido depende de cuatro parámetros geométricos
asociados con cada elemento. Estos parámetros, α, a, θ y d, describen completamente cualquier
articulación, ya sea prismática o de revolución.
Generalidades
54
1. θi Ángulo de la articulación del eje xi-1 al eje xi respecto del eje zi-1, utilizando la regla de
la mano derecha.
2. di Distancia desde el origen del sistema de coordenadas (i-1)-ésimo hasta la intersección del
eje zi-1 con el eje xi a lo largo del eje zi-1.
3. ai Distancia de separación desde la intersección del eje zi-1 con el eje xi (o la distancia más
corta entre los ejes zi-1 y zi).
4. αi Ángulo de separación del eje zi -1 al eje zi respecto del eje xi (utilizando la regla de la
mano derecha).
Para la articulación giratoria, di, ai, αi son los parámetros de articulación y permanecen constantes
para un robot, mientras que θi es la variable articulación que cambia cuando el elemento i se mueve
o gira, con respecto al elemento i-1. Para una articulación prismática, θi, a1 y son los parámetros de
la articulación y permanece constante para un robot, mientras que di es la variable de la articulación.
La variable de la articulación se refiere a θi (o di) esto es, la cantidad que varia, y los parámetros de
articulación se refieren a los restantes 3 valores geométricos constantes (di, ai, αi) para una
articulación giratoria o (θi, ai, αi) para una articulación prismática.
El convenio D-H es un método matricial que permite establecer una relación rotacional y
traslacional entre elementos adyacentes de una cadena articulada, pudiéndose determinar a
continuación las ecuaciones cinemáticas de la cadena completa. Según la representación D-H,
escogiendo adecuadamente los sistemas de referencia asociados para cada eslabón, será posible
pasar de uno al siguiente mediante 4 transformaciones básicas que dependen exclusivamente de las
características cinemáticas del eslabón.
Estas transformaciones consisten en una sucesión de rotaciones y traslaciones que permitan
relacionar el sistema de referencia del elemento i con el sistema del elemento i-1. Las
transformaciones en cuestión son las siguientes:
1. Rotación alrededor del eje zi-1 un ángulo θi.
2. Traslación a lo largo del eje zi-1 una distancia di; vector di (0, 0, di).
3. Traslación a lo largo de xi una distancia ai; vector ai (0, 0, ai).
4. Rotación alrededor del eje xi un ángulo αi.
Generalidades
55
La siguiente ecuación permite describe el convenio D-H.
(2.12)
Por lo que la Matriz de transformación D-H o matriz de transformación homogénea compuesta
es:
(2.13)
Donde αi, ai, di son constantes mientras que θi es la variable de la articulación, para una articulación
tipo revolución.
Para una articulación tipo prismática, la variable articulación es di, mientras que αi, ai, θi son
constantes. En este caso es:
(2.14)
A continuación se muestra como ejemplo un robot tipo SCARA, el cual fue desarrollado en la clase
de Diseño de Manipuladores Robóticos dentro del programa de Maestría en Ingeniería de
Manufactura.
Figura 2.22 Sistema de Referencia .
Generalidades
56
Figura 2.23 Sistemas de Coordenadas para i=1,2,3.
Figura 2.24 Sistema de Coordenadas de la Mano , , n=4.
Tabla 2.1 Parámetros D-H.
Articulación ak αk dk θk 1 L1H 0º L1V θ*1
2 L2 180º 0 θ*2 3 0 0º d*3 0º 4 0º 0º L4 θ*4
Generalidades
57
2.8 Planeación de Trayectorias.
El problema de la planeación (o generación) de trayectorias puede ser planteado tal como se
describe en (Mark W. Spong et al., 2006):
“A partir de los puntos, o de las configuraciones, inicial y final; encontrar una serie de movimientos
articulares para alcanzar la posición final con una trayectoria válida y libre de colisiones”.
Otro planteamiento es el que se describe en (Russell&Norvig, 2004):
“Encontrar un camino para llegar de una configuración a otra en el espacio libre”.
Se define W como un espacio Euclidiano, llamado espacio de trabajo, representado como NR. Sea A
un objeto rígido simple (el robot móvil) con geometría aproximadamente conocida, que se mueve en
el espacio W sin restricciones cinemáticas en el movimiento de A (es decir A es un objeto de libre
movimiento). Sean B1,…Bq objetos rígidos distribuidos en W que actúan como obstáculos, y que
tienen geometrías aproximadamente conocidas. El problema de planeación de trayectorias consiste
en dada una posición inicial y orientación de A en W, generar un camino especificando una
secuencia continua de posiciones de A evitando el contacto con los Bi, hasta llegar a una posición
final o meta con una orientación deseada (ver figura 2.25).
Figura 2.25 Ejemplo de Planeación de Trayectoria (Russell&Norvig, 2004).
Generalidades
58
El problema de planeación de trayectorias consiste en dada una posición inicial y orientación de A
en W, generar un camino especificando una secuencia continua de posiciones de A evitando el
contacto con los Bi, hasta llegar a una posición final o meta con una orientación deseada.
Para la solución del problema de planeación de trayectorias del robot A al evitar los obstáculos Bi,
en el espacio de trabajo W existen dos enfoques, el de la planeación local y el de la planeación
global.
Tal como se describe en (Latombe, 1991) el problema básico de planeación global de trayectorias es
generar una trayectoria, especificando una secuencia continua de posiciones y orientaciones de A
evitando el contacto con los Bi, comenzando en una posición y orientación inicial de A y
terminando en la posición de la meta, reportando falla si dicha trayectoria no existe. El problema de
la planeación local es un poco diferente ya que no se conoce de antemano la ubicación de los
obstáculos, por lo tanto estos van a ser encontrados en tiempo real de acuerdo a la información que
proveniente de los sensores. El problema se vuelve más complejo cuando existe interacción entre
varios robots móviles tanto para planeación local como global y en especial cuando se realiza la
planificación en un espacio tridimensional.
2.9 Calidad.
En la norma ISO 9000:2000 se ofrece una definición de calidad bastante genérica y de aplicación en
distintos campos:
“Grado en el que un conjunto de características inherentes cumple con los requisitos”
Esta norma hace referencia a dos grupos de requisitos:
1. Las necesidades o expectativas establecidas (características que cada uno establece).
2. Las implícitas u obligatorias (características que se presupone se deben cumplir).
La American Society For Quality, define la calidad como: “La totalidad de funciones y
características de un producto que les permite satisfacer una determinada necesidad”.
Generalidades
59
Tal como se aborda en (Gutiérrez, 2008) muchos especialistas han querido dar su propia definición,
algunas de las más trascendentes son mencionadas a continuación:
• W. Edwards Deming indica que: "El control de Calidad no significa alcanzar la perfección.
Significa conseguir una eficiente producción con la calidad que espera obtener en el
mercado".
• Josehp M. Juran define la calidad como: "Adecuación al uso".
• Philip Crosby lo define como: "Conformidad con los requisitos".
• Armand V. Feigenbaum define la calidad como: "La composición total de las
características de los productos y servicios de marketing, ingeniería, fabricación y
mantenimiento, a través de los cuales los productos y servicios cumplirán las expectativas de
los clientes".
• A partir de esta definición se puede entender que el control de calidad es un factor
fundamental para todos los sectores productivos y que, por ello, organizaciones
internacionales de estándares, establecen conjuntos de normas para cada uno de los campos
de la producción.
2.10 Sumario.
En este capítulo se estudiaron temas relacionados a los sistemas de visión artificial, cinemática de
manipuladores robóticos y planeación de trayectorias, esto con el objetivo de tener las bases para
desarrollar el proyecto.
Se analizaron cada una de las fases involucradas en el diseño del sistema de visión artificial, se
presentó la teoría que dará pauta a resolver el principal problema en la parte de control para la
solución de la cinemática del IRB 1600 de ABB por medio de la planeación de trayectorias, la cual
consiste en encontrar la ruta que deberá seguir robot para la intercepción de movimiento de piezas
que no cumplen con los requerimientos de calidad que son establecidos en el capítulos 3.
60
En este capítulo se presenta la fase de diseño conceptual, la cual permite construir los conceptos que son necesarios para el total y eficaz diseño del sistema de intercepción en movimiento de piezas metálicas que no cumplen con requerimientos de calidad.
DISEÑO CONCEPTUAL
333
Diseño Conceptual
61
3. Diseño Conceptual.
El diseño conceptual se define como un diseño que representa la totalidad del objeto proyectado, es
decir, representa la suma de todos los subsistemas que integran el sistema completo, todas las partes
que configuran el sistema.
En el desarrollo de este capítulo se toma como referencia la metodología QFD (Quality Function
Deployment) con el objetivo de identificar las herramientas de diseño apropiadas al problema en el
proceso de solución.
3.1 Metodología QFD (Quality Function Deployment).
La metodología QFD permite la identificación del cliente, hasta el establecimiento de las metas de
diseño. El objetivo primordial del QFD es la mejora de la calidad de los productos, por lo que
algunos aspectos esenciales del QFD pueden señalarse como (Goetsch&Davis, 2005):
• El QFD es una metodología para planificar el proceso de diseño eslabonando al cliente con
las empresas.
• Los datos iniciales del proceso de diseño son los requerimientos y expectativas de los
clientes. Esto significa escuchar la voz del cliente.
• Los requerimientos y expectativas de los clientes deben traducirse en metas de diseño
plenamente mensurables.
• El QFD utiliza gráficos para desplegar información relevante.
• El QFD permite identificar las herramientas de diseño apropiadas al problema en el proceso
de solución.
En los subcapítulos se aplica la metodología QFD para el diseño de un sistema de intercepción de
piezas metálicas en movimiento que no cumplen con requerimientos de calidad, desde la
identificación del cliente, hasta el establecimiento de las metas de diseño. En (Revelle et al., 1997)
se describe la estructura más común del QFD, está representada por un gráfico de matrices
semejante a la silueta de una casa, compuesta por varios puntos (ver figura 3.1).
Diseño Conceptual
62
1. Requerimientos del cliente. Esta etapa reúne las necesidades del cliente relacionados con el
producto.
2. Determinación de los requerimientos del cliente: Se estable con las expectativas del cliente sobre
algunas especificaciones de desempeño, ¿cómo satisfacerlos?
3. Importancia relativa y ponderación de los requerimientos del cliente.
4. Estudio comparativo del producto con algunos similares de la competencia.
5. Traducción de los requerimientos en términos mensurables de ingeniería.
6. Establecimiento de las metas de diseño en base a lo anterior.
7. Planeación administrativa.
Figura 3.1 Estructura de la Matriz de Calidad (Goetsch&Davis, 2005).
3.1.1 Identificación del Cliente.
La metodología QFD permite identificar al cliente y/o clientes potenciales interesados en el sistema
que se desarrolla en esta tesis. Tal como se describe en el capítulo 1 de esta tesis, las aplicaciones
que se pueden dar a los sistemas de inspección de calidad por medio de visión artificial pueden ser
Diseño Conceptual
63
aplicadas a diferentes sectores industriales, por ejemplo, la industria metal-mecánica, farmacéutica,
automotriz, alimentos, bebidas, etc., empleando las técnicas que cada una de las aplicaciones
requiera para dar solución a cada una de ellas en particular.
Para el caso de estudio el cliente y/o clientes son aquellas industrias del sector metal-mecánica que
sean impactadas por un proceso fiable de inspección de calidad con la manipulación de aquellas
piezas que no cumplan con los requerimientos establecidos, esto en un entorno de producción
continúa.
Como caso de estudio la pieza a inspeccionar son “discos de corte diamantados”
de pulgadas,
de la marca Austromex, los cuales tienen la función de realizar cortes sobre materiales como lo son
el concreto, concreto reforzado, asfalto, roca, mármol, granito, azulejo, etc. (ver figura 3.2).
Figura 3.2 Pieza Metálica “Disco de Corte Diamantado”.
3.1.2 Determinación de los Requerimientos.
El diseño está basado en los requerimientos que demanda un sistema para la intercepción en
movimiento de piezas metálicas que no cumplen con los requerimientos de calidad, estos de
enuncian en la tabla 3.1.
Diseño Conceptual
64
Tabla 3.1 Determinación de los Requerimientos del Cliente.
REQUERIMIENTOS Q
UE
A Se diseñe un sistema que optimice calidad y costos.
B El sistema realice una inspección dimensional de piezas metálicas.
C La inspección sea fiable.
D La inspección sea rápida.
E Se diseñe un sistema de intercepción de piezas, mediante la manipulación de estas.
F El sistema de intercepción trabaje bajo un entorno de producción continua.
G Las piezas que no cumplen con los requerimientos de calidad sean colocadas en un área
destinada a estas.
H Se desarrolle una interfaz gráfica del proceso.
I El sistema sea flexible a diferentes tipos de piezas.
J Exista una comunicación eficiente en el sistema.
K El sistema sea competitivo con respecto a las propuestas de la competencia.
L El sistema se diseñe bajo las condiciones de un entorno de trabajo seguro.
M Mantener una velocidad óptima en sistema de intercepción de objetos.
3.1.3 Clasificación de los Requerimientos.
a. Desempeño Funcional
• El sistema realice una inspección dimensional de piezas metálicas.
• La inspección sea fiable.
• Se diseñe un sistema de intercepción de piezas, mediante la manipulación de estas.
• El sistema de intercepción trabaje bajo un entorno de producción continua.
• Las piezas que no cumplen con los requerimientos de calidad sean colocadas en un área
destinada a estas.
• Se desarrolle una interfaz gráfica del proceso.
• El sistema sea flexible a diferentes tipos de piezas.
• Exista una comunicación eficiente en el sistema.
• El sistema sea competitivo con respecto a las propuestas de la competencia.
• El sistema se diseñe bajo las condiciones de un entorno de trabajo seguro.
• Mantener una velocidad óptima en sistema de intercepción de objetos.
Diseño Conceptual
65
b. Costo
• Se diseñe un sistema que optimice calidad y costos.
c. Tiempo
• La inspección sea rápida.
La clasificación de los requerimientos está basada en su naturaleza, considerando especialmente
aquellos que son obligatorios, es decir, los que deben estar implícitos en el sistema. La clasificación
permite identificar los requerimientos deseables, esto con la finalidad de determinar su importancia
relativa y tomarlos en cuenta durante el diseño, esperando como resultado, un grado de satisfacción
mayor en el cliente.
En la tabla 3.2 se organizan todos los requerimientos y expectativas del cliente, señalando aquellos
que son obligatorios y deseables, de acuerdo a su naturaleza. Los requerimientos deseables son
aquellos que se desean incorporar al diseño del producto, aportando correcciones y mejoras durante
la definición del modelo conceptual. El siguiente paso, es separar el grupo de requerimientos
deseables, y llevarlos a una definición de importancia relativa entre cada uno de estos. Así, la
ponderación resultante, se tomará en cuenta durante el desarrollo del sistema.
Diseño Conceptual
66
Tabla 3.2 Identificación de Requerimientos de Calidad (Obligatorios y Deseables).
REQUERIMIENTOS DE CALIDAD Obligatorios Deseables Referencia
Des
empe
ño F
unci
onal
El sistema realice una inspección dimensional de piezas
metálicas. * RO1
La inspección sea fiable. * RO2
Se diseñe un sistema de intercepción de piezas, mediante
la manipulación de estas. * RO3
El sistema de intercepción trabaje bajo un entorno de
producción continua. * RO4
Las piezas que no cumplen con los requerimientos de
calidad sean colocadas en un área destinada a estas. * RO5
Se desarrolle una interfaz gráfica del proceso. * RO6
El sistema sea flexible a diferentes tipos de piezas. * RD1
Exista una comunicación eficiente en el sistema. * RO7
El sistema sea competitivo con respecto a las propuestas
de la competencia. * RD2
El sistema se diseñe bajo las condiciones de un entorno
de trabajo seguro. * RO8
Mantener una velocidad óptima en sistema de
intercepción de objetos. * RO9
Cos
to Se diseñe un sistema que optimice calidad y costos. * RD3
Tiem
po
La inspección sea rápida. * RD4
Diseño Conceptual
67
3.1.4 Importancia Relativa de los Requerimientos de Calidad.
Tal como se describe en (Akao, 1997) una vez definido los requisitos de calidad obligatorios
deseables, se llevan a un nivel de ponderación, donde aquellos requerimientos obtienen una
cuantificación de la importancia relativa entre ellos, esto a través de las siguientes expresiones:
( 1)
2N NC −
=
(3.1)
C=Cantidad total de comparación.
N=Número de requerimientos analizados.
( )100Ir x
C+
= ∑
(3.2)
Ir=Valor relativo del requerimiento.
C= Cantidad total de comparación.
Para tener el cálculo se utilizan dos valores de comparación.
(1) Significa que el requerimiento de comparación es más importante que los demás.
(0) Significa que el requerimiento de comparación no es más importante que los demás.
Tabla 3.3 Matriz de Importancia Relativa en los Requerimientos Deseables.
Requerimientos Deseables RD1 RD2 RD3 RD4 Importancia Relativa Orden de Importancia
∑(+) Ir(%)
RD1 x 1 0 0 1 16.66 % 3
RD2 0 x 0 0 0 0 % 4
RD3 1 1 x 1 3 50 % 1
RD4 1 1 0 x 2 33 % 2
Total 6 100 %
Así en la tabla 3.3 se determina el orden de importancia de los requerimientos deseables, es decir,
que existen requisitos deseables más importantes que otros. En concreto, el requerimiento RD3 tiene
Diseño Conceptual
68
mayor nivel de importancia sobre los demás, siendo RD2 el que tiene menor valor de importancia,
de manera que el primero puede ser tomado en cuenta más fácilmente que el último.
3.1.5 Estudio Comparativo a Sistemas de la Competencia.
Se desarrolla un análisis de comparación del sistema con respecto a aquellos sistemas ofertados por
empresas que son líderes en el mercado. Esta se hace tomando en cuenta las características del
sistema y cada uno de los requisitos propuestos por el cliente, desde los obligatorios hasta los
deseables (ver tabla 3.4). Tabla 3.4 Nivel de Satisfacción.
Clasificación 1 2 3 4 5
No satisface requerimiento. *
Ligeramente satisface el requerimiento. * *
Medianamente satisface el requerimiento. * * *
En mayor parte satisface el requerimiento. * * * *
Totalmente satisface el requerimiento. * * * * *
Se seleccionaron compañías líderes en el mercado, de las cuales sólo dos serán tomadas en cuenta,
de acuerdo al área geográfica del mercado en que se encuentran y los sistemas que ofrecen.
1.-GRUPO INFAIMON
2.-KEYENCE CORPORATION
3.-MAPS INFORMATICA INDUSTRIAL
4.-NATIONAL INSTRUMENT
5.-PPT VISION IMPACT
Selección factible:
1.-GRUPO INFAIMON
4.-NATIONAL INSTRUMENT
Las compañías 1 y 4 fueron las seleccionadas de acuerdo a los criterios antes mencionados y se
compara con el diseño del sistema. Los requerimientos son aquellos listados en la tabla 3.2,
Diseño Conceptual
69
calificando en grado de similitud con respecto al grado de satisfacción que es propuesto en la tabla
3.4. En la tabla 3.5 se muestra el Benchmarking comparativo de las compañías seleccionadas 1 y 4,
contra los requerimientos contemplados para el diseño propuesto.
Tabla 3.5 Benchmarking Comparativo de los Requerimientos de Calidad.
REQUERIMIENTOS DE CALIDAD
(BENCHMARKING COMPARATIVO) Infamon
National
Instrument
Diseño
Propuesto
Des
empe
ño F
unci
onal
El sistema realice una inspección dimensional de piezas
metálicas. 5 5 5
La inspección sea fiable. 5 5 5
Se diseñe un sistema de intercepción de piezas, mediante la
manipulación de estas. 1 1 5
El sistema de intercepción trabaje bajo un entorno de
producción continua. 1 1 5
Las piezas que no cumplen con los requerimientos de calidad
sean colocadas en un área destinada a estas. 1 1 5
Se desarrolle una interfaz gráfica del proceso. 5 5 5
El sistema sea flexible a diferentes tipos de piezas. 5 5 5
Exista una comunicación eficiente en el sistema. 5 5 5
El sistema sea competitivo con respecto a las propuestas de la
competencia. 5 5 5
El sistema se diseñe bajo las condiciones de un entorno de
trabajo seguro. 5 5 5
Mantener una velocidad óptima en sistema de intercepción de
objetos. 1 1 5
Cos
to Se diseñe un sistema que optimice calidad y costos. 5 5 5
Tiem
po
La inspección sea rápida. 5 5 5
Diseño Conceptual
70
Como se puede observar, el sistema propuesto tiene un alto nivel de satisfacción sobre los
requerimientos que han sido establecidos, esto en consecuencia de la integración de los subsistemas
de percepción y actuación, los sistemas propuestos por las demás compañías satisfacen de igual
forma los requerimientos que conciernen al subsistema de percepción, no teniendo el mismo
resultado en el subsistema de actuación, esto muestra que el sistema propuesto es una solución
óptima.
3.1.6 Establecimiento de Metas de Diseño y Traducción de los Requerimientos y Expectativas
de los Clientes en Términos Mesurables.
En base a los requerimientos, se tienen que llevar a un nivel de traducción cuantificable, es decir,
todos aquellos requerimientos hechos por el cliente hay que definirlos en términos mensurables de
ingeniería, de manera que se asociarán directamente con una unidad de medición; Aquellos que no
puedan ser asociados directamente a una unidad de medición, lo harán con un significado explícito,
donde se referirá a la actividad que ésta implica.
La meta de diseño se resume en diseñar un sistema de visión artificial aplicado a la robótica, capaz
de realizar pruebas de inspección dimensional a piezas metálicas, mediante una inspección fiable. El
sistema discriminará aquellas piezas que no cumplan con los requerimientos de calidad establecidos
y estas serán retiradas del proceso mediante un sistema de intercepción que permita la manipulación
de estas, además se diseñara la interfaz que permita una comunicación eficaz entre el subsistema de
percepción y actuación del sistema.
Tabla 3.6 Traducción de los Requerimientos de Calidad a Requerimientos de Ingeniería.
Referencia REQUERIMIENTOS DE CALIDAD REQUERIMIENTOS
DE INGENIERÍA Cantidad Unidad
RO1 Realizar una inspección dimensional
de piezas metálicas. Sensor de imagen. 1 Pixel
RO2 Inspeccionar de forma fiable. -- -- --
RO3 Diseñar un sistema de intercepción,
mediante la manipulación de estas. Robot Manipulador. 1 --
Diseño Conceptual
71
Continúa Tabla 3.6
RO4
El sistema de intercepción debe
trabajar bajo un entorno de
producción continúa.
Banda Transportadora. 1
RO5
Las piezas que no cumplen con los
requerimientos de calidad serán
colocadas en un área destinada a
estas.
Robot Manipulador. 1 --
RO6 Desarrollar una interfaz gráfica del
proceso. Monitoreo del Proceso. 1 HMI
RD1 El sistema sea flexible. -- -- --
RO7 Comunicar eficientemente al sistema. Tarjetas de
Comunicación 5 & 24 Volts
RD2 El sistema sea competitivo en función
a la competencia. -- -- --
RO8 Diseñar un sistema seguro. -- -- --
RO9
Mantener una velocidad óptima en
sistema de intercepción de objetos.
Aceleración del robot
manipulador. 500
RD3 Diseñar un sistema que optimice
calidad y costos.
El sistema ofrezca una
reducción de costos en
los procesos en los que
se emplee.
Pesos Pesos
RD4 Inspeccionar de manera rápida. Inspección de calidad
de piezas metálicas. 7 Minutos
A continuación se mencionan los requerimientos traducidos que se derivan de aquellos que no son
directamente mensurables:
Una inspección fiable implica:
• Las etapas del subsistema de percepción se ejecuten de forma óptima.
Diseño Conceptual
72
El sistema sea flexible a diferentes tipos de piezas implica:
• El sistema tenga la flexibilidad de inspeccionar y manipular otras piezas diferentes a las
propuestas, realizando los cambios necesarios en las etapas pertinentes.
Exista una comunicación eficiente en el sistema implica:
• Se diseñen las interfaces de comunicación entre el sistema de percepción y actuación,
mediante el diseñe y selección de elementos más óptimos para un correcto desempeño.
El sistema sea competitivo con respecto a las propuestas de la competencia implica:
• El sistema satisfaga las necesidades de los clientes ofreciendo un sistema que iguale y
mejore las soluciones que ofrece la competencia.
El sistema se diseñe bajo las condiciones de un entorno de trabajo seguro implica:
• Se tomen las medidas de seguridad necesarias para la protección del equipo y se establece el
área de trabajo del robot para evitar posibles accidentes con personal que pudiera estar
desempeñando alguna actividad cerca de esta área.
3.2 Desarrollo del Diseño Conceptual.
La fase del diseño conceptual requiere de creatividad dentro del proceso de diseño y la originalidad
del producto depende de las decisiones que se tomen, ya que tiene un impacto significativo en el
costo de producción y el grado en que el producto satisface los requerimientos del cliente, depende
en gran medida del concepto a partir del cual está desarrollado, con cierta medida de creatividad
invertida durante su concepción. Esta fase se basa en la estrategia de la “forma sigue a la función”,
se identifican las funciones que debe realizar el producto que responde a las expectativas del cliente,
para después convertirlos en un modelo funcional. Después se generan conceptos de diseño, donde
las ideas surgen para dar solución al problema y evaluar con la finalidad de obtener aquél que
cumple con el objetivo (Juvinall, 2005).
Diseño Conceptual
73
El problema consiste en diseñar un sistema de visión artificial aplicado a la robótica, enfocado a la
inspección de calidad e intercepción de piezas metálicas en movimiento que se encuentran fuera de
los estándares de calidad. Como primera etapa se deberá diseñar un modelo cuyas características
están señaladas en la sección “despliegue de función de calidad (QFD)”.
3.2.1 Función Global de Servicio del Sistema.
La función global de servicio del sistema en el proceso de diseño, describe el papel a desempeñar
del mismo, es decir la capacidad que tiene para realizar cada elemento o el conjunto del sistema la
cual queda definida de la siguiente manera:
“Inspeccionar un lote de piezas metálicas e interceptar en movimiento aquellas piezas que no
cumplen con los requerimientos de calidad”.
Figura 3.3 Diagrama Funcional de Mayor Nivel en el Sistema.
3.2.2 Análisis Funcional Descendente.
En la definición del modelo funcional se determina qué funciones son necesarias para satisfacer los
requerimientos del cliente, jerarquizarlas, determinar la relación que se debe tener entre ellas y
describirlo gráficamente, siguiendo un análisis funcional descendente. En la aplicación del análisis
funcional descendente, se señala gráficamente las funciones del sistema, partiendo de lo general a lo
particular, es decir, desde la función global de servicio en un primer nivel, hasta la traducción de
funciones complementarias en un segundo nivel de traducción, o los que requieran de acuerdo a la
complejidad del sistema.
Inspeccionar e Interceptar
Piezas Metálicas que no cumplen con Requerimientos de
Calidad.
Captura de Imagen
Energía Eléctrica
Planeación de Trayectoria
Aire a Presión
Imagen Analizada
Energía Mecánica
Trayectoria Deseada
Aire Despresurizado
Entradas Salidas
Diseño Conceptual
74
3.2.2.1. Primer Nivel de Descomposición Funcional
Figura 3.4 Funciones Primarias del Sistema.
3.2.2.2. Segundo Nivel de Descomposición Funcional
Función “Inspeccionar Pieza”
Figura 3.5 Función de Inspección de Piezas.
Diseño Conceptual
75
Función “Transportar Piezas Durante la Inspección”
Figura 3.6 Función de Transportación de Piezas.
Función “Interceptar Pieza”
Figura 3.7 Función de Intercepción de Pieza.
Función “Comunicar el Sistema”
Figura 3.8 Función de Comunicación del Sistema.
Diseño Conceptual
76
Función “Visualizar el Proceso”
Figura 3.9 Función de Visualización del Sistema.
3.2.2.3. Tercer Nivel de Descomposición Funcional
Función “Inspeccionar Pieza”
Figura 3.10 Función de Captura de Imagen.
Figura 3.11 Función de Análisis de Imagen.
Diseño Conceptual
77
Función “Transportar Piezas Durante la Inspección”
Figura 3.12 Función de Movimiento.
Función “Interceptar Pieza”
Figura 3.13 Función Robot Manipulador.
Figura 3.14 Función Efector Final.
Diseño Conceptual
78
Función “Comunicar el Sistema”
Figura 3.15 Función de Comunicación Subsistema de Percepción.
Figura 3.16 Función de Comunicación Subsistema de Actuación.
Función “Visualización del Proceso”
Figura 3.17 Función de Visualización del Sistema “Hardware”.
Figura 3.18 Función de Visualización del Sistema “Software”.
Diseño Conceptual
79
Una vez que se describen las funciones complementarias en su nivel más bajo, se analizan cada una
de ellas. Las funciones técnicas y de servicio para el sistema se describen a continuación y se
muestran en la figura 3.19.
• Sensor de Imagen.
Es el encargado de recoger las características del objeto bajo estudio.
• Preprocesado.
El preprocesamiento de la imagen consiste en reducir la información en la misma, de modo que
pueda ser interpretada por medio de una computadora.
• Segmentación.
La segmentación es el primer paso necesario para la identificación, ya que antes de poder saber que
es cada objeto en la imagen, es necesario saber qué grupo de píxeles corresponden a un mismo
grupo.
• Extracción de Características.
La extracción de características es el proceso donde se miden características de la imagen para poder
distinguir un objeto de otro.
• Reconocimiento de Patrones.
Es la categorización de datos de entrada en clases identificadas por medio de la extracción de
características significativas o atributos de los datos extraídos de un medio ambiente que contiene
detalles irrelevantes.
• Motores.
Un motor eléctrico es una máquina eléctrica que transforma energía eléctrica en energía mecánica
por medio de interacciones electromagnéticas.
• Clasificación de los Modos de Control de un Robot Manipulador.
Manual: Cuando el operario controla directamente la tarea del manipulador.
Secuencia Fija: Cuando se repite, de forma invariable, el proceso de trabajo preparado previamente.
Secuencia Variable: Se pueden alterar algunas características de los ciclos de trabajo.
Diseño Conceptual
80
• Elemento de Sujeción.
Los elementos de sujeción se utilizan para agarrar y sostener los objetos y se suelen denominar
pinzas. Se distingue entre las que utilizan dispositivos de agarre mecánico y las que utilizan algún
otro tipo de dispositivo (ventosas, pinzas magnéticas, adhesivas, ganchos, etc.)
• Elemento Tipo Herramienta.
Los elementos tipo herramienta se utilizan como efector final en aplicaciones en donde se exige al
robot realizar alguna operación en la pieza de trabajo. Estas aplicaciones incluyen la soldadura por
puntos, la soldadura por arco, a la pintura por pulverización y las operaciones de taladro. En cada
caso, la herramienta particular está unida a la muñeca del robot para realizar la operación.
• Adquisición de Señal.
La adquisición de datos o adquisición de señales, consiste en la toma de muestras del mundo real
(voltaje, corriente, temperatura, presión o sonido, etc.) para generar datos que puedan ser
manipulados por un ordenador u otros dispositivos de hardware. Consiste en tomar un conjunto de
señales físicas, convertirlas en tensiones eléctricas y digitalizarlas de manera que se puedan procesar
en una computadora. Se requiere una etapa de acondicionamiento, que adecua la señal a niveles
compatibles con el elemento que hace la transformación a señal digital. El elemento que hace dicha
transformación es el módulo de digitalización o tarjeta de Adquisición de Datos (DAQ).
Cada sistema de adquisición de datos se define por sus requerimientos de aplicación, sin embargo
cada sistema comparte una meta en común de adquirir, analizar y presentar información. Los
sistemas de adquisición de datos incorporan señales, sensores, actuadores, acondicionamiento de
señales, dispositivos de adquisición de datos y software de aplicación.
• Medio de Comunicación.
Un medio de comunicación para el caso de estudio, está definido como un medio que conecta a la
fuente con el receptor y que provea un canal a través del cual los mensajes se puedan enviar. Este
medio puede ser de dos tipos: uno es en forma de cable o alambre físico y el otro es un medio de
transmisión inalámbrico.
• Medio de Visualización.
Se define como un elemento donde se crean y muestran imágenes.
Diseño Conceptual
81
• Medio de Programación.
Lenguaje de programación está definido como un conjunto de instrucciones, órdenes, comandos y
reglas que permiten la creación de programas. Los ordenadores entienden señales eléctricas (valores
0 ó 1). Los lenguajes permiten al programador indicar lo que debe hacer un programa, sin tener que
escribir largas cadenas de ceros y unos, sino palabras (instrucciones) más comprensibles por las
personas, con el objetivo de que estos programas ejecuten una tarea en particular.
Figura 3.19 Análisis Funcional Descendente.
3.2.3 Generación de Conceptos.
La generación de conceptos tiene como objetivos dar soluciones reales a las funciones del sistema es
una técnica que propicia la creatividad y la generación de ideas. El problema a resolver se desarrolla
con la aplicación de la técnica brainstorming, la cual consta de dos tiempos, el primero es la
deliberación con el único objetivo de obtener una serie de ideas encaminadas a resolver un
problema, el segundo trata de determinar el valor de las ideas y realizarles mejoras.
Diseño Conceptual
82
Función “Inspección de Piezas”.
Sensor de imagen para la función captura de imagen.
A1.-Sensor de imagen CCD (Charge Coupled Devices).
A2.-Sensor de imagen CMOS (Complementary Metal Oxide Semiconductor).
Análisis de imagen.
B1.-Preprocesado.
C1.-Segmentación.
D1.-Extracción de características.
E1.-Reconocimiento de patrones.
Función “Transporte de Piezas a Inspeccionar”.
Motor eléctrico para la función movimiento de piezas.
F1.-Motor de corriente continúa.
F2.-Motor de corriente alterna.
F3.-Motor universal.
Función “Intercepción de Piezas”.
Robot manipulador para la función intercepción de piezas.
G1.-Cartesiano.
G2.-Cilindrico.
G3.-Esferico.
G4.-De revolución.
Diseño Conceptual
83
Figura 3.20 Clasificación de Robots Manipulador (Iñigo&Vidal, 2006).
Efector final para la función intercepción de piezas.
H1.-Elemento de sujeción.
H2.-Elemento tipo herramienta.
Función “Comunicación del Sistema”.
Adquisición de señal para la función percepción del sistema.
I1.-Sistema analógico.
I2.-Sistema digital.
I3.-Acoplamiento de señales.
Medio de comunicación para la función percepción del sistema.
J1.-Two-wire open lines.
J2.-Cable de par trenzado (Twisted Pair Wire).
J3.-Cable coaxial.
Diseño Conceptual
84
Adquisición de señal para la función actuación del sistema.
K1.-Sistema analógico.
K2.-Sistema digital.
K3.-Acoplamiento de Señales.
Medio de comunicación para la función actuación del sistema.
L1.-Two-wire open lines.
L2.-Cable de par trenzado (Twisted Pair Wire).
L3.-Cable coaxial.
Función “Visualización del Proceso”.
Medio de visualización para la función hardware.
M1.-Monitor Industrial.
M2.-Monitor Touch Screen.
M3.-Monitor de PC.
3.2.4 Evaluación de Conceptos.
La evaluación de conceptos consiste en la selección del mejor concepto de diseño entre los que se
generaron anteriormente, seleccionando el que satisfaga los requerimientos de la mejor forma, ya
que esta selección definirá al sistema.
Lenguaje de programación para la función software.
N1.-LabVIEW.
N2.-Wonderware InTouch.
N3.- InduSoft Web Studio.
N4.- CitectH
El resultado de ideas generadas es un total de combinaciones siguientes:
2x1x1x1x1x3x4x2x3x3x3x3x3x4=46,650.
Diseño Conceptual
85
3.2.4.1 Evaluación Fundamentada en la Factibilidad del Concepto.
La evaluación está basada en la experiencia y el conocimiento durante la vida profesional,
descartando aquellos conceptos que de entrada se sabe no son factibles. La lista de los conceptos no
factibles se muestra a continuación:
Función “Transporte de Piezas a Inspeccionar”.
Motor eléctrico para la función movimiento de piezas.
F3.-Motor universal.
Función “Intercepción de Piezas”.
Efector final para la función intercepción de piezas.
H2.-Elemento tipo herramienta.
Función “Comunicación del Sistema”.
Adquisición de señal para la función percepción del sistema.
I1.-Sistema analógico.
Medio de comunicación para la función percepción del sistema.
J3.-Cable coaxial.
Adquisición de señal para la función actuación del sistema.
K1.-Sistema analógico.
2x1x1x1x1x2x4x1x2x2x2x2x3x4=3,072.
Medio de comunicación para la función actuación del sistema.
L3.-Cable coaxial.
El resultado de evaluación fundamentada en la factibilidad del concepto genera un total de
combinaciones siguientes:
Diseño Conceptual
86
3.2.4.2 Evaluación Con Base en la Disponibilidad Tecnológica.
Todos los conceptos que hasta este punto han permanecido como viables, tienen una implicación
con respecto a las tecnologías disponibles y experimentadas por lo que se hace una segunda
evaluación. La lista de los conceptos no factibles se muestra a continuación:
Función “Inspección de Piezas”.
Sensor de imagen para la función captura de imagen.
A2.-Sensor de imagen CMOS (Complementary Metal Oxide Semiconductor).
Función “Transporte de Piezas a Inspeccionar”.
Motor eléctrico para la función movimiento de piezas.
F1.-Motor de corriente continúa.
Función “Intercepción de Piezas”.
Robot manipulador para la función intercepción de piezas.
G1.-Cartesiano.
G2.-Cilindrico.
G3.-Esferico.
Función “Comunicación del Sistema”.
Medio de comunicación para la función percepción del sistema.
J1.-Two-wire open lines.
Medio de comunicación para la función actuación del sistema.
L1.-Two-wire open lines.
Diseño Conceptual
87
Función “Visualización del Proceso”.
Medio de visualización para la función hardware.
M1.-Monitor Industrial.
M2.-Monitor Touch Screen.
Lenguaje de programación para la función software.
N2.-Wonderware InTouch.
N3.- InduSoft Web Studio.
N4.- CitectH
El resultado de la evaluación de conceptos permite obtener 3 posibles soluciones al sistema, estas
soluciones son evaluadas mediante una matriz de decisión. La matriz de decisión hace una
comparación entre las variables que forman parte de las soluciones y mediante el análisis del valor
relativo que corresponde a cada una de ellas, es posible obtener el concepto ganador del sistema de
intercepción de piezas en movimiento que no cumplen con requerimientos de calidad. La tabla 3.7
muestra las 3 posibles soluciones y las variables que forman parte de la solución, mientras la tabla
3.8 muestra el concepto ganador y el valor relativo que corresponde a cada variable.
Diseño Conceptual
88
Tabla 3.7 Generación de Conceptos.
Generación de Conceptos
Inspección de Pieza.
Función Concepto A
Concepto B
Concepto C
Sensor de Imagen. A1 A1 A1 A2 * *
Análisis de Imagen.
B1 B1 B1 C1 C1 C1 D1 D1 D1 E1 E1 E1
Transporte de Piezas. F1 * * F2 F2 F2 * F3
Intercepción de Pieza. Robot Manipulador.
G1 * * G2 * * G3 * * G4 G4 G4
Efector Final. H1 H1 H1 * H2 *
Comunicación del Sistema.
Adquisición de Señales Percepción.
* I1 * I2 I2 I2 I3 I3 I3
Medio de Comunicación. J1 * * J2 J2 J2 * J3 J3
Comunicación del Sistema.
Adquisición de Señales Actuación. * K1 *
K2 K2 K2 K3 K3 K3
Medio de Comunicación. L1 L2 L2 L2 * L3 *
Visualización del Proceso.
Hardware. M1 * * M2 * * M3 M3 M3
Lenguaje de Programación.
N1 N1 N1 N2 * * N3 * * N4 * *
Diseño Conceptual
89
Tabla 3.8 Evaluación de Conceptos.
Evaluación de Conceptos
Inspección de Pieza.
Función Variable Valor Relativo
Concepto A
Concepto B
Concepto C
Sensor de Imagen. A1 .50 + + + A2 0 - + +
Análisis de Imagen.
B1 1 + + + C1 1 + + + D1 1 + + + E1 1 + + +
Transporte de Piezas. F1 0 - + + F2 0.66 + + + F3 0.33 + - +
Intercepción de Pieza.
Robot Manipulador.
G1 0 - + + G2 0.33 - + + G3 0.16 - + + G4 0.5 + + +
Efector Final. H1 1 + + + H2 0 + - +
Comunicación del Sistema.
Adquisición de Señales Percepción.
I1 0 + - + I2 0.5 + + + I3 0.5 + + +
Medio de Comunicación.
J1 0 - + + J2 0.66 + + + J3 0.33 - + +
Comunicación del Sistema.
Adquisición de Señales Actuación.
K1 0 + - + K2 0.66 + + + K3 0.33 + + +
Medio de Comunicación.
L1 0 - + + L2 0.66 + + + L3 0.33 + - +
Visualización del Proceso.
Hardware. M1 0 - + + M2 0.33 - + + M3 0.66 + + +
Lenguaje de Programación.
N1 0.55 + + + N2 0.33 - + + N3 0.16 - + + N4 0 - + +
Total 10.2 12.16 13.48
Diseño Conceptual
90
3.3 Modelo Funcional.
Una vez hechas las evaluaciones en el diseño del sistema, toma una forma estructural para el modelo
funcional, la cual presenta aquellas variantes que ofrece características de satisfacción a los
requerimientos establecidos. La variable ganadora se describe por las siguientes variables:
Función “Inspección de Piezas”.
Sensor de imagen para la función captura de imagen.
A1.-Sensor de imagen CCD (Charge Coupled Devices).
Análisis de imagen.
B1.-Preprocesado.
C1.-Segmentación.
D1.-Extracción de características.
E1.-Reconocimiento de patrones.
Función “Transporte de Piezas a Inspeccionar”.
Motor eléctrico para la función movimiento de piezas.
F2.-Motor de corriente alterna.
Función “Intercepción de Piezas”.
Robot manipulador para la función intercepción de piezas.
G4.-De revolución.
Efector final para la función intercepción de piezas.
H1.-Elemento de sujeción.
Función “Comunicación del Sistema”.
Adquisición de señal para la función percepción del sistema.
Diseño Conceptual
91
I2.-Sistema digital.
I3.-Acoplamiento de señales.
Medio de comunicación para la función percepción del sistema.
J2.-Cable de par trenzado (Twisted Pair Wire).
Adquisición de señal para la función actuación del sistema.
K2.-Sistema digital.
K3.-Acoplamiento de Señales.
Medio de comunicación para la función actuación del sistema.
L2.-Cable de par trenzado (Twisted Pair Wire).
Función “Visualización del Proceso”.
Medio de visualización para la función hardware.
M3.-Monitor de PC.
1. Subsistema de percepción
Lenguaje de programación para la función software.
N1.-LabVIEW.
A1xB1xC1xD1xE1xF2xG4xH1xI2xI3xJ2xK2xK3xL2xM3xN1
El sistema de intercepción en movimiento de piezas metálicas que no cumplen con requerimientos
de calidad se compone por dos subsistemas:
2. Subsistema de actuación.
El sistema de percepción se compone por 2 etapas:
a. Adquisición de la imagen mediante el uso de un sensor de imagen.
Diseño Conceptual
92
b. Análisis de la imagen mediante las etapas de preprocesado, segmentación, extracción de
características y reconocimiento de patrones, desarrolladas en el lenguaje de programación
LabVIEW
El sistema de actuación se compone por 2 elementos:
a. Robot manipulador de revolución.
b. Efector final de sujeción.
El transporte de las piezas se efectúa por medio de una banda transportadora, la cual emplea un
motor de corriente alterna. La comunicación de los subsistemas que componen el sistema se
desarrolla mediante el empleo de una tarjeta de adquisición de señales y las etapas de acoplamiento
de señales correspondientes a los subsistemas de percepción y actuación. El proceso será visualizado
mediante el diseño de un HMI (Human Machine Interface), el cual será desarrollado en el lenguaje
gráfico de programación LabVIEW.
En la figura 3.21 se muestra un esquema del modelo conceptual del sistema, con los elementos que
han sido descritos.
Figura 3.21 Modelo Conceptual del Sistema.
Diseño Conceptual
93
3.4 Descripción de los Elementos del Sistema de Intercepción en Movimiento de
Piezas Metálicas que no Cumplen con Requerimientos de Calidad.
Una vez obtenido el modelo funcional del sistema mediante las evaluaciones en el diseño del
sistema, se describen de forma breve el funcionamiento y los elementos que cumplen con las
características que requiere el sistema de acuerdo a los requerimientos establecidos.
Se tiene una pieza metálica, la cual puede presentar errores dimensionales comúnmente originados
durante sus procesos de manufactura. La pieza viaja a través de una banda transportadora la cual
cuenta con un sensor infrarrojo (sensor de detección), el cual tiene como objetivo el envío de una
señal que informe al módulo de proceso (PC) la presencia de una pieza sobre la banda. En el módulo
se ejecuta el algoritmo de captura y procesamiento de imágenes determinando si la pieza sometida a
la inspección dimensional contiene errores o cumple con los requerimientos de calidad. Aquellas
piezas que no cumplan con los requerimientos de calidad serán interceptadas en movimiento y
colocadas en un área destinada a estas, mediante el empleo de un robot manipulador, mismo que se
encuentra en una posición inicial hasta la llegada de una señal que le indique ejecutar las rutinas
para las que fue programado.
Los elementos se formaran parte del sistema se describen de forma breve a continuación:
• Función “Inspección de Piezas”.
• Cámara de CCD (sensor de CCD): legend 530 DVT marca Cognex, la cual cuenta con un
sistema de iluminación conformado por leds infrarrojos.
Sensor de imagen para la función captura de imagen.
A1.-Sensor de imagen CCD (Charge Coupled Devices).
Para la obtención de información relativa a una escena, el sistema de inspección automático cuenta
con un dispositivo óptico y está conformado por:
• Lente: Navitar de 8mm F 1.2.
• Módulo: Wago breakout module for DVT cameras.
• Fuente de alimentación: Wago power supply 1.3A.
Diseño Conceptual
94
Figura 3.22 Sensor de Imagen del Sistema de Inspección Automático.
El sensor de CCD utilizado, destaca por su capacidad de comunicarse vía Ethernet con otros
dispositivos, permitiendo que la comunicación (cámara-módulo de procesamiento) sea fácil y rápida
de ejecutar. Este tipo de cámaras son conocidas como cámaras de red.
B1.-Preprocesado.
C1.-Segmentación.
Análisis de imagen.
El algoritmo de captura y procesamiento de imágenes es la parte inteligente de un sistema de visión
por computadora. Su misión consiste en visualizar y capturar una escena, para posteriormente
aplicar las transformaciones necesarias y extracciones de información de las imágenes capturada,
con el fin de obtener los resultados para los que se haya sido diseñado. Haciendo uso del software
LabVIEW, y del módulo de visión vision assistant, se desarrolla el algoritmo que permite realizar la
inspección automática en piezas metálicas, el algoritmo contempla las siguientes etapas:
D1.-Extracción de características.
E1.-Reconocimiento de patrones.
• Función “Transporte de Piezas a Inspeccionar”.
Motor eléctrico para la función movimiento de piezas.
F2.-Motor de corriente alterna.
Diseño Conceptual
95
La banda transportadora utilizada en el sistema de inspección, es de tipo asíncrono en una sola
dirección, está permite transportar las piezas por las diferentes etapas del proceso. El movimiento de
la banda transportadora es realizado mediante un motor de inducción monofásico con rotor tipo jaula
de ardilla. Dicho motor le proporciona a la banda transportadora un desplazamiento lineal de 30
cm/s.
Figura 3.23 Banda Transportadora Empleada en el Proceso.
• Función “Intercepción de Piezas”.
• Ejes: 6.
Robot manipulador para la función intercepción de piezas.
G4.-De revolución.
El actuador del proceso lo constituye un manipulador robótico modelo IRB 1600 de la marca ABB.
El IRB 1600 es un robot robusto y rápido con posibilidad de efectuar movimientos hacia atrás, sus
aplicaciones se destacan en soldadura por arco, montaje, fundición, moldeo por inyección, asistencia
para mecanización, encajado y manipulación de materiales. Las especificaciones del robot IRB
1600 se enuncian a continuación:
• Carga: 7 kg.
• H-Alcance: 1200 mm.
• Repetibilidad: ± 0,05 mm.
• Masa Robot: 250 kg.
• Estructura: articulado.
Diseño Conceptual
96
• Montaje: suelos, paredes, invertido, inclinado.
Figura 3.24 Robot Modelo IRB 1600 de la Marca ABB.
Efector final para la función intercepción de piezas.
H1.-Elemento de sujeción.
El efector final es constituido por un sistema se sujeción de piezas compuesto por un conjunto de
aspiración (ventosa) y una tobera de accionamiento neumático modelo VAD-ME-1/8 V35554-V302
1.5- 8 bar, ambas de la marca FESTO. La ventosa denominada comercialmente ventosa con rosca de
fijación ESS, tiene un diámetro de 30 mm y una fuerza de succión de 20,9 N a una presión de 0.7
bar.
Figura 3.25 Conjunto de aspiración y tobera de accionamiento neumático para sujeción de piezas mediante el uso de una ventosa.
Diseño Conceptual
97
• Función “Comunicación del Sistema”.
Adquisición de señal para la función percepción del sistema.
I2.-Sistema digital.
El flujo de datos, de la computadora al controlador del robot y viceversa se realizará empleando una
tarjeta de adquisición de datos (DAQ Data Acquisition) modelo NI USB-6009 de la marca National
Instrument. La DAQ proporciona conexión a ocho canales de entradas analógicas (AI), dos canales
de salida analógica (AO), 12 canales de entrada-salida digital (DIO) y un contador de 32 bits de alta
velocidad con interfaz USB.
Figura 3.26 Tarjeta de Adquisición de Datos NI-USB 6009.
I3.-Acoplamiento de señales.
Tarjeta de Acoplamiento de Señales, debido a que los voltajes necesarios para activar las señales que
envía la DAQ a el controlador IRC5 son diferentes, es necesario utilizar circuitos de acoplamiento
que permiten obtener el voltaje deseado en cada una de las terminales sin dañar los dispositivos
utilizados, (dichos voltajes de conversión son de 5V a 24V).
Como medio de comunicación del sistema se empleara cable de par trenzado de marca AT&T, este
es el medio de transmisión más común. El cable de par trenzado consiste de dos cables que han sido
Medio de comunicación para la función percepción del sistema.
J2.-Cable de par trenzado (Twisted Pair Wire).
Diseño Conceptual
98
entrelazados entre sí (un número específico de veces por pie) y que están envueltos por una cubierta
protectora. Cada cable de par trenzado está cubierto de un material aislante como plástico que evita
que los cables de cobre tengan contacto entre sí y que la señal de un par de cables interfiera con la
de otro par de cables.
Figura 3.27 Cable de Par Trenzado Marca AT&T.
• El controlador cuenta con 16 canales de entrada digitales y 16 de salida, de los cuales
algunos están asignados a señales preestablecidas por el fabricante.
Adquisición de señal para la función actuación del sistema.
K2.-Sistema digital.
Para que el robot envíe y reciba datos es necesario configurar señales de entrada y salida, para tal
propósito se emplea un controlador modelo IRC5 de la marca ABB, este controlador es la quinta
generación de controladores de robot de ABB. Su control del movimiento, TrueMove &
QuickMove, es la llave para las prestaciones del movimiento de los robots en términos de precisión,
velocidad, tiempo de ciclo, programabilidad y sincronización con dispositivos externos. Las
especificaciones del controlador IRC5 se enuncian a continuación:
Hardware de Control.
• El voltaje necesario para activar las señales del controlador es de 24VCD.
• Sistema multiprocesador.
• Bus PCI.
• CPU Pentium.
• Disco flash para memoria de masa.
• Alimentación de reserva para gestión del sistema en caso de fallo de la alimentación.
• Interfaz para memoria USB.
Diseño Conceptual
99
Software de Control.
• Diseño orientado al objeto.
• Lenguaje de programación de robots RAPID, de alto nivel.
• Portable, abierto, ampliable.
• Formato de archivo PC-DOS.
• Software RobotWare.
Figura 3.28 Controlador Modelo IRC 5 de la Marca ABB.
K3.-Acoplamiento de Señales.
Tarjeta de Acoplamiento de Señales. Debido a que los voltajes necesarios para activar las señales
que envía el controlador IRC5 a la DAQ son diferentes, es necesario utilizar circuitos de
acoplamiento que permiten obtener el voltaje deseado en cada una de las terminales sin dañar los
dispositivos utilizados, (dichos voltajes de conversión son de 24V a 5V).
• Función “Visualización del Proceso”.
Medio de comunicación para la función actuación del sistema.
L2.-Cable de par trenzado (Twisted Pair Wire).
Medio de visualización para la función hardware.
M3.-Monitor de PC.
Diseño Conceptual
100
Como sistema de procesamiento se emplea una PC marca Dell modelo Inspiron con las siguientes
características:
• Procesador Intel® Core™2 Duo T6600 (2.2GHz/800Mhz FSB/2MB cache).
• Sistema Operativo Windows XP Profesional.
• Memoria 4GB de doble canal compartido DDR2 a 800MHz.
• Pantalla WLED de alta definición HD + (1600 x 900) de 17,3" con TrueLife.
• Tarjeta de gráficos NVIDIA 256 MB.
• Disco duro SATA de 320GB (5400 RPM).
Lenguaje de programación para la función software.
N1.-LabVIEW.
LabVIEW es un entorno de programación gráfica usado por miles de ingenieros e investigadores
para desarrollar sistemas sofisticados de medida, pruebas y control usando íconos gráficos e
intuitivos y cables que parecen un diagrama de flujo. LabVIEW ofrece una integración
incomparable con miles de dispositivos de hardware y brinda cientos de bibliotecas integradas para
análisis avanzado y visualización de datos.
Figura 3.29 Pantalla Gráfica en el Lenguaje de Programación LAbVIEW.
En la figura 3.30 se muestra un esquema, el cual indica los elementos que componen al sistema y la
forma en la cual interactúa cada uno de ellos.
Diseño Conceptual
101
“Sistema de Intercepción en Movimiento de Piezas Metálicas que no Cumplen con
Requerimientos de Calidad”.
Subsistema de PercepciónTransporte de Piezas
Banda TransportadoraSubsistema de Actuación
Dispositivo
Óptico
Adquisición de la Imagen Análisis del la Imagen
Preprocesado
Segmentación
Extracción de Características
Reconocimiento de Patrones
Robot
Manipulador
IRB1600 Marca
ABB
Ventosa de
Rosca de
Fijación Marca
Festo
DAQ NI-USB 6009Controlador IRC5
Marca ABBAcoplamiento de
Señales
5 V – 24 V
Cable de Par Trenzado Cable de Par Trenzado
Sistema de Procesamiento
Figura 3.30 Elementos que Componen el Diseño Conceptual del Sistema.
Diseño Conceptual
102
3.5 Sumario.
En este capítulo se desarrolla el diseño conceptual del sistema de intercepción de piezas metálicas
que no cumplen con requerimientos de calidad, se aplica parte de la metodología QFD, la cual es
una metodología que busca focalizar el diseño de los productos y dar respuesta a las necesidades de
los clientes, cada paso describe las metas de diseño a conseguir y permite entender la prioridad de
las necesidades y encontrar respuestas innovadoras a esas necesidades.
El principal objetivo fue la obtención del modelo funcional, este presenta las características del
concepto que cumple con los requerimientos del cliente. Es importante mencionar, que la idea
abstracta sobre el diseño del sistema de intercepción en movimiento de piezas metálicas que no
cumplen con requerimientos de calidad debe transformarse durante el proceso del diseño de detalle.
Durante el desarrollo del diseño conceptual, la mayor complejidad que existe es el análisis funcional
descendente del sistema logrando encontrar las funciones complementarias y que describen el mejor
concepto. En otras palabras, tres etapas fundamentales del diseño en conjunto se analizaron, la
primera el subsistema de percepción, después el subsistema de actuación y finalmente la
comunicación del sistema, esto con la finalidad de encontrar las ideas y seleccionar aquellas que
satisfacen los requerimientos.
Una vez obtenido el modelo funcional, se continúa con el desarrollo del diseño a detalle, donde se
trasforma el concepto idealizado en un sistema físico y funcional, mediante la programación de
algoritmos, establecimiento del modelo cinemático del sistema, gráficos, esquemas y
especificaciones para su integración, implementación y obtención de resultados.
103
En este capítulo se aplica la metodología de diseño a detalle. Esta fase es el paso que transforma el diseño conceptual en la descripción del diseño físico, desde diagramas, memoria de cálculo, algoritmos, programación, hasta la descripción de cada elemento en particular.
DISEÑO A DETALLE
444
Diseño a Detalle
104
4. Diseño a Detalle.
El objetivo del diseño a detalle consiste en convertir el concepto idealizado y definir cómo ha de
implementarse mediante un conjunto de especificaciones, cálculos, algoritmos, diagramas, modelos
y prototipos en un sistema físico. En esta fase la abstracción del modelo funcional debe convertirse
en un modelo concreto.
El objetivo fundamental y global de esta fase es la de definir cómo ha de implementarse el objeto
para que satisfaga los requerimientos establecidos al inicio del proyecto o a lo largo de su ejecución.
4.1 Descripción General del Sistema.
El sistema de intercepción en movimiento de piezas metálicas que no cumplen con requerimientos
de calidad se desarrolla mediante la aplicación de técnicas de visión artificial y planeación de
trayectorias, con el objetivo de realizar inspección de calidad dimensional de un conjunto de piezas
metálicas y la manipulación de aquellas que se encuentren fuera de especificación, el sistema se
conforma por tres subsistemas:
1. Subsistema de Percepción.
2. Subsistema de Actuación.
3. Subsistema de Comunicación.
Para el caso de estudio se han seleccionado discos de corte diamantados, estas piezas son colocadas
sobre una banda transportadora, durante la trayectoria de avance de la banda transportadora se
ejecutan las 3 etapas enunciadas anteriormente.
En el subsistema de percepción se tiene una pieza metálica, la cual puede presentar defectos
dimensionales comúnmente originados durante sus procesos de maquinado, la pieza viaja a través de
una banda transportadora la cual cuenta con un sensor infrarrojo, el sensor tiene como objetivo el
envío de una señal que informa al módulo de proceso la presencia de una pieza sobre la banda. En el
módulo de proceso se ejecuta la primera etapa, la cual tiene la función de ejecutar el algoritmo de
Diseño a Detalle
105
captura y procesamiento de imágenes, determinando si la pieza sometida a inspección de calidad
dimensional muestra errores o cumple con los requerimientos de calidad establecidos.
El problema se aborda mediante un esquema de visión artificial, el cual consistente en 5 etapas:
adquisición de la imagen, preprocesamiento, segmentación, extracción de características y
reconocimiento de patrones.
La adquisición de la imagen es un conjunto de operaciones que se efectúan para transformar la
iluminación de una escena en una señal digital. Las imágenes no siempre se presenta en un formato
adecuado para su análisis, por lo que el siguiente proceso es el preprocesamiento de la imagen, en el
cual se utilizan técnicas encaminadas a realizar la mejora de la imagen, como son el nivel de gris,
contraste, eliminación del ruido y el realce de algunas características de interés. Una vez que esta
imagen está en condiciones de ser procesada, se tienen que hallar los objetos dentro de la imagen de
forma independiente y esto se hace a través de la segmentación, la segmentación es un proceso que
divide la escena en objetos, cada uno de los objetos puede ser clasificado, por lo que la siguiente
tarea es la clasificación o extracción de características para el reconocimiento. El reconocimiento es
la identificación de cada objeto en la escena mediante una etiqueta, esta etapa finalmente nos indica
si la pieza inspeccionada cumple o no con las especificaciones establecidas.
El subsistema de actuación está conformado por un manipulador robótico, el cual se encuentra en
una posición de reposo, esta posición de reposo cambia cuando la etapa de percepción envía una
señal a el controlador del robot indicando que existe una pieza defectuosa dentro del proceso, está
señal le indicara al manipulador ejecutar las trayectorias planeadas. La planeación de trayectorias
consiste en tomar la pieza que no cumple con los requerimientos de calidad establecidos y la
colocación de la pieza en un área destinada a piezas defectuosas, trabajando bajo un entorno de
producción continua.
La función del subsistema de comunicación dentro del sistema consiste en realizar una transferencia
de datos entre el subsistema de percepción y el subsistema de actuación de forma eficaz.
Diseño a Detalle
106
Adquisición de la Imagen
Preprocesamiento de la Imagen Segmentación Descripción y Extracción
de Características
Captura de la Imagen (Sensor de Imagen e
Iluminación)
Tarjeta de Adquisición USB NI
Sensor de Detección
Reconocimiento de Patrón
Toma de Desición
Optoacoplamiento de Señales
Controlador & Robot Manipulador IRB
1600 ABB
Planeación de Trayectoria
Fin de Proceso
Piezas en Movimiento (Banda Transportadora)
Diseño a Detalle
107
4.2 Descripción de la Pieza a Inspeccionar.
Las aplicaciones que se pueden dar a los sistemas de inspección de calidad por medio de visión
artificial y manipulación de objetos pueden ser aplicadas a diferentes sectores industriales, por
ejemplo, la industria metal-mecánica, farmacéutica, automotriz, alimentos, bebidas, etc., empleando
las técnicas que cada una de las aplicaciones requiera para dar solución a cada una de ellas en
particular.
Para el caso de estudio el cliente y/o clientes son aquellas industrias del sector metal-mecánica que
sean impactadas por un proceso fiable de inspección de calidad con la manipulación de aquellas
piezas que no cumplan con los requerimientos establecidos, esto en un entorno de producción
continúa. Como caso de estudio la pieza a inspeccionar son discos de corte diamantados
de la marca
Austromex (ver figura 4.2).
Figura 4.2 Pieza Metálica “Disco de Corte Diamantado”.
La inspección de calidad aplicada a los discos, es una inspección de tipo dimensional y para que este
proceso se realice de forma eficaz son consideradas las especificaciones de la figura 4.3, estas
especificaciones son consideradas durante la etapa de comparación de patrones en el subsistema de
percepción.
Diseño a Detalle
108
IPN.ESIME.AZC. PATRÓN ESTABLECIDO CLIENTE: SEPI-IPN
Diámetro:
(115mm)
Grosor: 0.08 mm
Número de Segmentos: 8
Barreno: ” (22.23mm)
Maestría en Ingeniería de Manufactura
Realizó:
Alberto Morales Varela.
Figura 4.3 Especificaciones del Disco de Corte Diamantado.
4.3 Subsistema de Percepción.
El subsistema de percepción tiene como objetivo la toma de información útil de una escena a partir
de su proyección en dos dimensiones, permitiendo la interpretación y el análisis de los píxeles. El
algoritmo de captura y procesamiento de imágenes es la parte inteligente del sistema automático de
inspección. Su misión consiste en visualizar y capturar una escena, para posteriormente aplicar las
Diseño a Detalle
109
transformaciones necesarias y extracciones de información de la imagen capturada, con el fin de
obtener los resultados para los que se haya sido diseñado. El siguiente diagrama de flujo menciona
cada una de las etapas que forman parte del subsistema de percepción.
Inicio
Etapa 1Detección de la Pieza.
Generación de un Evento.Inicio del Proceso de Inspección.
Etapa 2Visualización de la Imagen.
Captura de la Imagen.
Etapa 3Análisis de la Imagen
• Preprocesado y Filtrado.• Segmentación.• Extracción de Características.• Reconocimiento de Patrones.
¿ La Pieza Contiene Defectos ?
Fin de Proceso.
NO
Manipulación de la Pieza.
SI
Figura 4.4 Diagrama de Flujo del Algoritmo de Adquisición y Procesamiento Digital de Imágenes.
Diseño a Detalle
110
4.3.1 Detección de la Pieza.
La etapa de detección de la pieza se desarrolla mediante el empleo de un sensor infrarrojo, este es un
dispositivo electrónico capaz de medir la radiación electromagnética infrarroja de los cuerpos en su
campo de visión. La clasificación de un sensor infrarrojo se da según el tipo de señal emitida, para el
caso de estudio se implementa un sensor infrarrojo de tipo reflexivo, este tipo de sensor presenta una
cara frontal en la que encontramos tanto al LED como al fototransistor. Debido a esta configuración
el sistema tiene que medir la radiación proveniente del reflejo de la luz emitida por el LED (Acha,
2010).
En la figura 4.5 se muestran el diseño del diagrama electrónico del sensor infrarrojo de tipo
reflexivo y en la figura 4.6 se muestra el algoritmo diseñado en el software de programación
LabView, el cuál tiempo como objetivo adquirir la señal emitida por el sensor cuando existe una
pieza sobre la banda transportadora, está adquisición se realiza mediante una tarjeta de adquisición
de datos (NI USB-6009).
Figura 4.5 Diagrama Electrónico Sensor Infrarrojo.
Diseño a Detalle
111
Figura 4.6 Algoritmo Detección de la Pieza Mediante un Sensor Infrarrojo.
4.3.2 Generación de Evento.
La primera etapa del subsistema de percepción corresponde a la detección de la pieza, esta etapa
envía una señal de flanco ascendente cuando detecta una pieza sobre la banda transportadora, la cual
de pauta a la generación de un evento que permite inicializar el proceso de inspección (ver figura
4.7).
Figura 4.7 Algoritmo Generación de Evento.
Tal como se describe en (Lajara&Pelegri, 2007) la estructura event es empleada ya que ofrece
beneficios dentro de la programación, esta permite la ejecución del código que se encuentran en el
interior de la estructura solamente cuando se cumplen las condiciones programadas, mientras no se
genere evento alguno, la estructura permanece congelada, permitiendo la optimización de memoria
del módulo de procesamiento del sistema, mejorando la eficiencia del programa al evitar un
muestreo constante y la sobrecarga asociada con el registro de datos, minimizando el uso del
procesador.
Diseño a Detalle
112
4.3.3 Visualización y Captura de la Imagen.
La visualización de la escena y captura de la imagen se desarrolla en una estructura de LabVIEW
denominada event, mediante la cual se relacionan directamente la primera etapa del algoritmo de
detección de la pieza y la etapa subsecuente de procesamiento digital de la imagen.
La etapa de visualización de la escena demanda el uso de objetos Active X (controladores
DVTSID), para que exista una óptima comunicación entre el sensor de imagen DVT 530 y el
algoritmo desarrollado en LabVIEW, debido a que ambos trabajan en una plataforma de
programación distinta. Los objetos Active X es un entorno en el que mediante servicios basados en
objetos, se permite a distintos componentes comunicarse entre sí para reutilizar el código y el uso de
las capacidades o propiedades de diferentes aplicaciones al mismo tiempo, de esta forma pueden
interactuar diversos programas u aplicaciones.
El empleo de objetos Active X permite tener acceso a propiedades, métodos y eventos asociados a
estos componentes, pudiendo acceder a ellos a través de su interfaz y mediante los cuales se pueden
ejecutar las distintas aplicaciones que presente el objeto Active X. Lo anterior es posible a que
distintos métodos, propiedades y eventos asociados se encuentran encapsulados como archivos
ejecutables o en una biblioteca de vínculo dinámico, con lo que es posible manipular los datos del
objeto y establecer una interfaz estándar, para que las distintas aplicaciones se comuniquen entre sí.
En la figura 4.8 se muestra el algoritmo de visualización de la escena, su funcionamiento se ejecuta
cuando la estructura event tiene la notificación de ejecutar el algoritmo que se encuentra
programado, abriendo una referencia la cual permite a LabVIEW interactuar con la cámara y poder
ejecutar los recursos de la misma mediante los controles DVTSID. Esta referencia mediante un nodo
de invocación (invoke node) llama a un método denominado connect, con el cual LabVIEW forma la
conexión con la cámara de CCD legend 530 de DVT, utilizando para ello la dirección IP y el puerto
remoto de la cámara, posteriormente se programan 2 nodos mas de invocación, el primero mediante
un método denominado play images, determinando el tipo de imagen que se desea obtener de la
escena generada en la cámara, misma que se utilizará para realizar el procesamiento y el segundo
que efectúa un disparo en la cámara y la toma de la imagen en la escena, este método lleva por
nombre send trigger mode. En el algoritmo se consideran 2 estructura stacked sequence, la primera
contiene un VI que ayuda a realizar un retardo entre la señal de detección de la pieza y el disparo de
Diseño a Detalle
113
la cámara, con el objetivo de obtener una imagen óptima de la pieza y la segunda contiene un VI
donde se programa el tiempo de exposición de la escena en la cámara, de acuerdo a las necesidades
de velocidad de captura de escena requerida. Finalmente se programa un último nodo de invocación,
este realiza la desconexión de la cámara, evitando que se mantenga encendida durante el proceso.
Figura 4.8 Algoritmo Visualización de la Escena.
La etapa de captura y almacenamiento es el siguiente paso en el subsistema de percepción. En la
figura 4.9 se muestra el algoritmo de captura de imagen, este está compuesto por diferentes
instrucciones, las cuales vinculan la etapa de visualización de la escena y análisis de la imagen.
Esta tarea consiste en extraer por medio de la instrucción IMAQ create, la imagen obtenida de la
etapa de visualización de la escena. Para que la instrucción funcione correctamente, es necesario
establecer una comunicación entre el dispositivo generador de la imagen (sensor de imagen) y la
instrucción. Esta comunicación se realiza con la ayuda de las instrucciones file dialog e IMAQ read
file. La instrucción file dialog establece el diálogo o ruta con el sensor de imagen, por medio de la
dirección IP, lo cual permite identificar al dispositivo de donde procede la información de la imagen
visualizada. Posteriormente a estas etapas descritas, la imagen es almacenada en el HD de la unidad
procesadora mediante el direccionamiento de la imagen, por medio de un nodo de invocación y las
instrucción get file y writte BMP file (ver figura 4.10).
Diseño a Detalle
114
Figura 4.9 Algoritmo Captura de la Imagen.
Figura 4.10 Algoritmo Almacenamiento de la Imagen.
4.3.3.1 Especificaciones del Sistema de Percepción.
Las etapas de visualización de la escena y captura de imagen se desarrollan bajo especificaciones, ya
que de ellas depende la toma de una imagen óptima y por consecuente que la etapa de
procesamiento digital de la imagen se desarrolle con éxito. En la tabla 4.1 se muestran las
especificaciones de campo de visión (área del objeto que se desea capturar y que la cámara puede
adquirir con la mayor resolución) y la distancia de trabajo (distancia medida desde el lente de la
cámara hasta el objeto), ambas especificaciones son constante durante la ejecución del proceso. En
la figura 4.11 se muestran las especificaciones del sensor de imagen, tamaño, especificaciones
eléctricas y velocidad de captura.
Tabla 4.1 Especificaciones del Sistema.
Especificación Parámetro
Campo de Visión 135 mm x 135 mm
Distancia de Trabajo 270 mm
Resolución 640 x 480 pixel de resolución
Diseño a Detalle
115
4.3.3.2 Sensor de Imagen.
IPN.ESIME.AZC. ESPECIFICACIONES SENSOR DE IMAGEN CLIENTE: SEPI-IPN
Tamaño:
114mm x 55mm x
40mm.
Requerimientos de
corriente:
DC de 24 V, 210mA a
24 V.
Velocidad de Captura:
75 fps (frames per
second).
Nota: Debido a que la cámara utilizada es un dispositivo CCD progresivo, es posible realizar la
adquisición de imágenes, con las piezas en movimiento.
Realizó:
Alberto Morales Varela.
Figura 4.11 Especificaciones del Sensor de Imagen.
Diseño a Detalle
116
4.3.4 Análisis de la Imagen.
Es esta etapa, el objetivo consiste en aplicar las transformaciones necesarias y extracción de
información de las imágenes capturadas, con el fin de obtener los resultados para los que el sistema
ha sido diseñado.
4.3.4.1 Preprocesado y Segmentación.
El objetivo del procesamiento de imágenes es mejorar la calidad de las imágenes para su posterior
utilización o interpretación, esto se obtiene mediante la conversión del modelo de color RGB a un
modelo HSL, con el objetivo de separar la información de color en la imagen, el análisis específico a
una región de interés y la aplicación de filtros que tienen por objetivo fundamental obtener a partir
de una imagen origen, otra final, cuyo resultado sea más adecuado para una aplicación específica,
mejorando ciertas características de la misma que posibilite efectuar operaciones de procesado sobre
ella. Por tanto, se consideran los filtros como operaciones que se aplican a los píxeles de una imagen
digital para optimizarla, enfatizar cierta información o conseguir un efecto especial en ella (Chacon,
2007).
Los principales objetivos que se persiguen con la aplicación de filtros son:
• Suavizar la imagen: reducir la cantidad de variaciones de intensidad entre píxeles vecinos.
• Eliminar ruido: eliminar aquellos píxeles cuyo nivel de intensidad es muy diferente al de sus
vecinos y cuyo origen puede estar tanto en el proceso de adquisición de la imagen como en
el de transmisión.
• Realzar bordes: destacar los bordes que se localizan en una imagen.
• Detectar bordes: detectar los píxeles donde se produce un cambio brusco en la función
intensidad.
Durante esta etapa de preprocesado, se define el área sobre la que se desea realizar el análisis.
Esta parte del algoritmo tiene como objetivo delimitar la zona de inspección, excluyendo zonas
que exceden los límites de interés. La forma como se delimita la zona de inspección es
programando una región de interés (ROI – region of interest), esta región es el área de la imagen
en la cual se requiere efectuar el análisis (ver figura 4.12), posteriormente se programa la
Diseño a Detalle
117
orientación del patrón en la imagen, con el objetivo de determinar el punto inicial de una
geometría de referencia, en este caso el centro del disco de corte (ver figura 4.13), de esta forma
se aísla de la imagen original la región de interés en donde se realizara el análisis.
Figura 4.12 Algoritmo Región de Interés (ROI).
Figura 4.13 Algoritmo Orientación del Patrón de la Imagen (ROI).
Diseño a Detalle
118
La etapa de segmentación se desarrolla a partir de la imagen capturada y preprocesada, ya que es
necesario aislar o separar los objetos de interés de la escena. Se pretende por tanto dividir una
imagen en diferentes regiones, o dicho de otra forma, detectar automáticamente los bordes entre los
elementos o regiones. El nivel al que se realiza esta subdivisión depende de la aplicación en
particular, es decir, la segmentación terminará cuando se hayan detectado todos los objetos de
interés para la aplicación.
Para la aplicación los objetos de interés de la escena son:
• Diámetro del Barreno del disco.
• Diámetro del disco.
• Segmentos del disco.
Durante el desarrollo de la etapa de segmentación de la imagen, se hace uso de una técnica basada
en valores de intensidad (umbralización), que tiene como objetivo distinguir en la imagen los
objetos de interés y enfocar el análisis en dichos objetos.
El proceso de filtrado que se ha desarrollado en el presente trabajo se lleva a cabo sobre los
dominios de espacio, con el fin de mejorar la interpretación visual y facilitar un procesamiento. Los
filtros aplicados son los siguientes:
1. Filtro de Convolución Espacial: El filtrado espacial se realiza trasladando una matriz
rectangular de dos dimensiones (también llamada ventana, kernel, máscara o núcleo) que
contiene "pesos" o ponderaciones sobre la imagen en cada localización de píxel. Se evalúa el
píxel central de la ventana de acuerdo con los píxeles de alrededor y sus valores de
ponderación. Cuando un nuevo valor es así calculado, se desplaza la ventana sobre el
siguiente píxel, realizando la misma operación. Este proceso de evaluar la vecindad
ponderada del píxel se denomina "convolución bidimensional" y a la matriz de filtro se le
conoce como "kernel de convolución".
Tal como se describe en (Saco&Montini, 2005b) la frecuencia espacial define la magnitud de
cambios en el nivel de gris por unidad de distancia en una determinada zona de la imagen. Las áreas
de la imagen con pequeños cambios o con transiciones graduales en los valores de los datos se
Diseño a Detalle
119
denominan áreas de bajas frecuencias. Las áreas de grandes cambios o rápidas transiciones se
conocen como áreas de altas frecuencias (por ejemplo, los bordes).
En general, la convolución de una imagen f de MxN con una máscara h de mxn está dada por la
siguiente expresión:
(4.1)
Donde m=3 y n=3.
Teniendo en cuenta la respuesta a la máscara de convolución (ver tabla 4.2), o sea, , la cual
está dada por la expresión 4.1, se evalúa la respuesta para un punto cualquiera, por ejemplo, (5,4),
obtenemos la siguiente expresión:
(4.2)
(4.3)
Tabla 4.2 Máscara de Convolución.
h(-1,-1) h(-1,0) h(-1,1)
h(0,-1) h(0,0) h(0,-1)
h(1,-1) h(1,0) h(1,1)
El filtro de convolución espacial enfatiza los bordes que rodean a un objeto dentro de la imagen,
para hacerlo más fácil de analizar, creando una imagen con fondo gris y líneas blancas y negras
rodeando los bordes de los objetos y características de la imagen, en la figura 4.14 se muestra la
programación del algoritmo que se implementa en esta etapa.
Diseño a Detalle
120
Figura 4.14 Algoritmo Filtro de Convolución.
2. Filtro Gaussiano: Reduce la cantidad de variaciones de intensidad entre píxeles vecinos y
eliminar aquellos píxeles cuyo nivel de intensidad es muy diferente al de sus vecinos y cuyo
origen puede estar tanto en el proceso de adquisición de la imagen como en el de
transmisión, además simulan una distribución gaussiana bivariante. El valor máximo aparece
en el pixel central y disminuye hacia los extremos tanto más rápido cuanto menor sea el
parámetro de desviación típica s. El resultado será un conjunto de valores entre 0 y 1. Para
transformar la matriz a una matriz de números enteros se divide toda la matriz por el menor
de los valores obtenidos.
Este filtro hace la detección de bordes usando el algoritmo llamado “Diferencia de Gaussianas”,
que ejecuta dos desenfoques Gaussianos en la imagen, con diferentes radios de desenfoque, y
sustrae las dos versiones para obtener el resultado final. Los parámetros más importantes son el
radio de desenfoque para los dos desenfoques. En la etapa de preprocesado se obtienen mejores
resultados si radio 1 es más pequeño que radio 2, ya que existe una figura iluminada sobre un
fondo oscuro.
La ecuación para calcularla la diferencia de gaussianas es:
(4.4)
Diseño a Detalle
121
(4.5)
En la figura 4.15 se muestra la programación del algoritmo que se implementa en esta etapa.
Figura 4.15 Algoritmo Filtro de Gaussiano.
3. Conversión a Imagen Binaria: Una imagen binaria es una imagen en la cual cada píxel puede
tener solo uno de dos valores posibles 1 o 0. Como es lógico suponer una imagen en esas
condiciones es mucho más fácil encontrar y distinguir características estructurales. El trabajo
con imágenes binarias es muy importante ya sea para realizar segmentación por intensidad
de la imagen, para generar algoritmos de reconstrucción o reconocer estructuras. La forma
más común de generar imágenes binarias es mediante la utilización del valor umbral de una
imagen a escala de grises, de tal forma que los objetos de interés antes mencionados se
etiquetan con un valor distinto al de los píxeles de fondo, esto resulta de la selección de un
valor limite T (o bien un intervalo) a partir del cual todos los valores de intensidades
mayores serán codificados como 1 mientras que los que estén por debajo serán codificados a
cero.
Diseño a Detalle
122
Teniendo seleccionado un umbral T que identifique los valores codificados como 1 de los valores
codificados como 0, cualquier punto (x , y) para el cual f (x , y) > T, es llamado un punto objeto,
mientras que f (x , y) T es llamado punto del fondo. La imagen particionada g (x , y) está definida
como:
(4.6)
En la figura 4.16 se muestra la programación del algoritmo que se implementa en esta etapa.
Figura 4.16 Algoritmo Segmentación.
Diseño a Detalle
123
Operación Morfológica de Erosión: Una de las operaciones más utilizadas en visión sobre imágenes
previamente binarizadas son las operaciones morfológicas. Las operaciones morfológicas son
operaciones realizadas sobre imágenes binarias basadas en formas. Esta operación durante la etapa
de preprocesamiento toma como entrada una imagen binaria regresando como resultado una imagen
también binaria. El resultado del valor de cada píxel de la imagen binaria es basado en el valor del
correspondiente píxel de la imagen original binaria y de sus vecinos. De esta manera la operación de
erosión tiene como objetivo remover píxeles en las fronteras de los objetos, cuyo origen puede estar
tanto en el proceso de adquisición de la imagen como en el de transmisión, eliminando el ruido que
pueda existir en la imagen.
La figura 4.17 muestra la programación del algoritmo que se implementa en esta etapa.
Figura 4.17 Algoritmo Operación Morfológica.
4.3.4.2 Extracción de Características.
Con los objetos a estudiar ya definidos es necesario extraer una serie de medidas que los
caractericen adecuadamente, en forma de vector de características. Los descriptores deben de ser
independientes del tamaño, localización u orientación del objeto y deben ser suficientes para
discriminar objetos entre sí. Los descriptores se basan en la evaluación de alguna característica del
objeto para el caso de estudio de descriptores unidimensionales y específicos, estos se mencionan a
continuación:
Diseño a Detalle
124
• Número de segmentos.
• Posición relativa de segmentos.
• Perímetro.
• Forma del perímetro.
Para obtener un resultado óptimo de esta etapa se realiza una calibración a la imagen, la cual
consiste en transformar la información que contiene la imagen en unidades de pixeles a unidades de
milímetros.
Uno de los principales problemas en el reconocimiento de patrones, es encontrar una manera óptima
de representar la información original que describe a cada uno de los patrones basado en los
descriptores mencionados inicialmente. Esta etapa de extracción de características trata de reducir la
cantidad de información que representa a cada uno de los patrones, obteniendo de esta forma, un
vector de características que represente de la mejor manera posible al patrón original.
La forma de describir los objetos presentes en la imagen es por medio de los siguientes tipos de
descriptores:
a) Descriptores de Contorno: Información binaria de pertenencia al contorno.
b) Descriptores de Región: Información binaria de pertenencia al interior del objeto, no sólo
con los del contorno: momentos (área, centro de gravedad, momentos invariantes) y
descriptores topológicos.
La imagen binaria obtenida en la etapa anterior es representada como una matriz, la cual contiene
información tanto del objeto como del fondo. Una representación más compacta de la imagen, se
obtiene al almacenar en una estructura de datos, la información de los pixeles que acotan al objeto.
De esta forma, basta con realizar análisis u operaciones sobre la estructura de datos, para realizar la
extracción y selección de los parámetros que definen el objeto. Tal como se describe en (Sobrado,
2003) las técnicas que se basan en la utilización de estructuras de datos para almacenar los puntos
que acotan al objeto, son las técnicas de codificación de contornos. La figura 4.18 muestra la
programación del algoritmo de extracción de características.
Diseño a Detalle
125
Figura 4.18 Algoritmo de Extracción de Características.
Diseño a Detalle
126
4.3.4.3 Reconocimiento de Patrones.
El objetivo de esta etapa es identificar el patrón como miembro de una clase ya definida, este
reconocimiento de patrones se hace en base a los parámetros que se describen en la figura 4.3, la
programación del algoritmo de esta etapa se muestra en la figura 4.19, mientras en la figura 4.20 se
muestra la programación del algoritmo que determina si la pieza cumple o no con los requerimientos
establecidos.
Figura 4.19 Algoritmo Reconocimiento de Patrones.
Figura 4.20 Algoritmo Reconocimiento de Patrones.
Diseño a Detalle
127
Una vez desarrolladas las etapas del subsistema de percepción, se desarrolla una pantalla gráfica, la
cual tiene como objetivo mostrar las imágenes que están siendo inspeccionadas, así como el estatus
de estas. En la figura 4.21 se muestra el algoritmo completo del subsistema de percepción, mientras
en la figura 4.22 y 4.23 se muestra la imagen de una pieza inspeccionada en tiempo real.
Figura 4.21 Algoritmo “Subsistema de Percepción”.
Nota: Cada uno de los algoritmos (VI) programados en LabVIEW que han sido descritos, utilizan
funciones que manipulan las entradas del usuario o datos provenientes de otras fuentes y muestran la
información procesada o la pasan a ficheros u otros dispositivos. Cada VI se compone de varios
SubVIs. A un VI llamado por otro se le denomina subVI, esto es el equivalente a las subrutinas en la
Diseño a Detalle
128
programación basada en texto. Al diseñar esta aplicación en Labview, se comienza desde el VI más
general definiendo las entradas y salidas de la aplicación. Después se crean subVIs que realizan
tareas más sencillas dentro del VI general.
4.4 Subsistema de Actuación.
El subsistema de actuación tiene como objetivo la manipulación de piezas rechazadas, mediante su
intercepción en movimiento, resultado de la inspección a la que han sido sometidas. Los elementos
que constituyen al subsistema de actuación es un robot IRB 1600 de ABB y un efector final
compuesto por una tobera de accionamiento neumático y un conjunto de aspiración (ver figura
4.22).
Figura 4.22 Ejes Robot Manipulador IRB 1600 ABB.
Para desarrollar el algoritmo de planeación de trayectorias, se establecen los parámetros de la
herramienta (efector final) ha utilizar y se establece el espacio de trabajo del robot manipulador, el
cual se refiere a la representación que tiene el robot con respecto a los objetos con los que
interacciona y que se limita a características geométricas: posición y orientación de los objetos y a
sus especificaciones: dimensiones y peso. En la figura 4.23 se muestra el área de trabajo en donde
actúa el robot manipulador y en la tabla 4.3 las posiciones deseadas para la ventosa en cada uno de
los puntos finales.
Diseño a Detalle
129
Figura 4.23 Área de Trabajo del Robot Manipulador.
Tabla 4.3 Posición de Objetos del Área de Trabajo.
Objeto Posición X (mm) Posición Y (mm) Posición Z (mm)
Base del Robot 0 0 0
Pieza 1000 0 900
Cámara 1000 500 1170
Área de Piezas Defectuosas 600 -500 900
Los valores X, Y, Z y las orientaciones se encuentran referidas al sistema de coordenadas base del
robot y para la ventosa se considera un sistema de coordenadas igual al que utiliza el robot en su eje
6 (extremo de su brazo), pero desplazado hasta el punto final de la ventosa (punto de succión o
punto central de la herramienta). En la tabla 4.4 se mencionan las características geométricas y las
especificaciones del efector final con respecto del sistema de coordenadas del 6 del robot.
Tabla 4.4 Características Geométricas y Especificaciones del Efector Final.
Eje Distancia del Extremo del Robot al Punto de Succión
X 0 mm
Y 0 mm
Z 90 mm
Diseño a Detalle
130
Peso del conjunto de aspiración: 57,2 gr.
Nota: La distancia considera el conjunto de aspiración (elemento de fijación y ventosa).
La intercepción de la pieza se realiza en el punto donde la distancia es mínima entre el efector final
y la pieza. En la tabla 4.5 se mencionan las características geométricas y las especificaciones de
velocidad de la banda transportadora
Tabla 4.5 Características Geométricas y Especificaciones de la Banda Transportadora.
Parámetro Banda Transportadora
Longitud 1500 mm
Ancho 0,08 mm
Altura 140 mm
Velocidad 150 mm / segundo
4.4.1 Método de Intercepción de Objetos en Movimiento.
En el capítulo 1 se menciono que existen diversos métodos de intercepción de objetos en
movimiento los cuales se adaptan a diferentes situaciones o ambientes en que se pueda encontrar el
robot. Las diferentes técnicas son dependientes del tipo de movimiento del objeto, el tipo de
movimiento puede ser considerado como aleatorio o predecible. Para el caso de estudio el tipo de
movimiento es considerado como predecible, debido a que la pieza se mueve en una trayectoria
continua con una velocidad invariante en el tiempo.
Conociendo la velocidad de movimiento de la banda transportadora y teniendo definido el espacio
de trabajo, la técnica PPE (predicción, planeación y ejecución) de trayectoria es adecuada para la
intercepción de objetos en movimiento, los cuales viajan a través de trayectorias definidas. Debido a
que la trayectoria de la pieza es predecible de manera confiable, no hay necesidad para una
retroalimentación continua del estado del objeto al módulo de planeación de trayectorias. Las
técnicas de PPE involucran de manera general tres pasos:
1. Predicción de la trayectoria del objeto.
2. Planeación de la trayectoria del robot para la intercepción del objeto.
3. Ejecución de la trayectoria planeada.
Diseño a Detalle
131
4.4.2 Cinemática Directa del Robot Manipulador IRB 1600 ABB.
La cinemática directa del robot se reduce a encontrar la matriz de transformación homogénea T que
relaciona un sistema de coordenadas en su efector final con un sistema de coordenadas fijo a su
base, es decir encuentra la forma explícita de la función que relaciona el espacio de articulaciones
del robot (dimensiones de los eslabones y giros relativos) con el espacio cartesiano de
posiciones/orientaciones, para dicho fin se utiliza la representación Denavit-Hartenberg, se trata de
un procedimiento sistemático que permite el paso de un eslabón al siguiente mediante 4
transformaciones básicas, que dependen exclusivamente de las características constructivas del
robot. Las transformaciones básicas que relacionan el sistema de referencia del elemento i con el
sistema del elemento i-1 son:
1. Rotación alrededor del eje .
2. Traslación a lo largo del eje .
3. Traslación a lo largo del eje .
4. Rotación alrededor del eje .
Donde:
• Es el ángulo de la articulación del eje al eje respecto del eje .
• Es la distancia desde el origen del sistema de coordenadas (i-1)-ésimo hasta la
intersección del eje con el eje a lo largo del eje .
• Es la distancia de separación desde la intersección del eje con el eje hasta el
origen del sistema i-ésimo a lo largo del eje .
• Es el ángulo de separación del eje al eje respecto al eje .
Cada sistema de coordenadas se determina y establece sobre la base de 3 reglas:
1. El eje yace a lo largo del eje de la articulación.
2. El eje es normal al eje y apunta hacia afuera de él.
3. El eje completa el sistema de coordenadas dextrógiro según se requiera.
Diseño a Detalle
132
La representación Denavit-Hartenberg se lleva a cabo con la aplicación de la siguiente metodología:
1. Numerar los eslabones (brazos) comenzando con 1 (primer eslabón móvil de la cadena) y
acabando con n (último eslabón móvil). Se numerará como eslabón 0 a la base fija del robot.
2. Numerar cada articulación comenzando por 1 (la correspondiente al primer grado de
libertad) y acabando en n.
3. Localizar el eje de cada articulación. Si ésta es rotativa, el eje será su propio eje de giro. Si es
prismática, será el eje a lo largo del cual se produce el desplazamiento.
4. Para i de 0 a n-1 situar el eje sobre el eje de la articulación i+1.
5. Situar el origen del sistema de la base ( ) en cualquier punto del eje . Los ejes e se
situarán de modo que formen un sistema dextrógiro con .
6. Para i de 1 a n-1, situar el sistema ( ) (solidario al eslabón i) en la intersección del eje con
la línea normal común a y . Si ambos ejes se cortasen se situaría ( ) en el punto de
corte. Si fuesen paralelos ( ) se situaría en la articulación i+1.
7. Para i de 1 a n-1, situar en la línea normal común a y .
8. Para i de 1 a n-1, situar yi de modo que forme un sistema dextrógiro con y .
9. Situar el sistema ( ) en el extremo del robot de modo que coincida con la dirección de
y sea normal a y .
10. Obtener como el ángulo que hay que girar en torno a para que y queden
paralelos
11. Obtener como la distancia, medida a lo largo de , que habría que desplazar
( ) para que y queden alineados.
12. Obtener como la distancia medida a lo largo de , (que ahora coincidiría con ) que
habría que desplazar el nuevo ( ) para que su origen coincidiese con ( ).
13. Obtener como el ángulo que habría que girar en torno a , que ahora coincidiría con ,
para que el nuevo ( ) coincidiese totalmente con ( ).
14. Obtener las matrices de transformación i-1Ai.
15. Obtener la matriz de transformación entre la base y el extremo del robot T= 0A1 1A2
n-1An.
16. La matriz T define la orientación (submatriz de rotación) y posición (submatriz de
translación) del extremo referido a la base en función de las n coordenadas articulares.
Diseño a Detalle
133
Los cuatro parámetros de D-H ( , , , ) dependen únicamente de las características
geométricas de cada eslabón y de las articulaciones que le unen con el anterior y el siguiente, para
obtener los parámetros se asignan los sistemas de coordenadas según las reglas antes descritas (ver
figura 4.24).
Figura 4.24 Definición de los Sistemas de Coordenadas en cada Articulación.
Tabla 4.6 Parámetros Denavit-Hartenberg IRB 1600 ABB.
Articulación di ai 1 2 0 0 3 0 0 4 0 5 0 0 6 0 0
Diseño a Detalle
134
Empleando el sistema de coordenadas establecido en la figura 4.26 y los parámetros Denavit-
Hartenberg obtenidos en la tabla 4.6, se obtienen las siguientes matrices de transformación
homogénea i-1Ai:
Matriz de transformación 0A1 = (4.7)
Matriz de transformación 1A2 = (4.8)
Matriz de transformación 2A3 = (4.9)
Matriz de transformación 3A4 = (4.10)
Matriz de transformación 4A5 = (4.11)
Matriz de transformación 5A6 = (4.12)
La matriz de transformación homogénea que relaciona el sistema entre la base y el extremo del robot 0A6 = 0A1
1A2 2A3
3A4 4A5
5A6 , está dada por la matriz 4.13.
Diseño a Detalle
135
Matriz de transformación 0A6 = 0A3 *
3A6 = (4.13)
Donde:
Diseño a Detalle
136
4.4.2 Cinemática Inversa del Robot Manipulador IRB 1600 ABB.
Los robots se suelen controlar en el espacio de las variables de articulación, mientras que los objetos
que manipulan se suelen expresar en el sistema de coordenadas del mundo real. Con el fin de
controlar posición y orientación del efector final de un robot manipulador para alcanzar su objeto,
es muy importante la solución de la cinemática inversa, para el caso de estudio dada la posición y
orientación del efector final del manipulador respecto a su base, se determina la configuración que
deben adoptar las coordenadas articulares , que nos den como resultado la
posición y orientación en el espacio que se desea. La cinemática inversa tiene diferentes tipos de
solución, para el caso de estudio se desarrolla una solución cerrada, esta se describe a continuación
(inciso b):
a. Métodos iterativos: El inconveniente de estos procedimientos es su velocidad de
convergencia, por lo que no son aplicables en tiempo real.
b. Soluciones cerradas: Tal como se describe en (Lun-Wen, 2007), el problema de la
cinemática inversa en un manipulador de 6 grados de libertad se aborda por medio de un
desacoplo cinemático, el cual permite la separación de posición y orientación, obteniendo la
posición con los 3 primeros grados de libertad y la orientación con los 3 restantes, además de
ser una solución óptima en tiempo real.
c. Otros: Álgebra de tornillo, cuaterniones duales, etc.
Mediante una solución cerrada se resuelven los tres primeros grados de libertad para posicionar la
muñeca del robot en un punto en donde sea posible colocar el efector final en la posición deseada
(Lun-Wen, 2007), se tiene en cuenta que los últimos tres ejes de las articulaciones intersecan a el
punto central de la muñeca P como se muestra en la figura 4.25, por lo tanto la rotación de los tres
últimos ejes no afectan a la posición de P.
Diseño a Detalle
137
Figura 4.25 Sistemas de Coordenadas IRB 1600 ABB.
En la figura 4.26 se muestra el sistema de coordenadas del efector final ( ), el centro de la
muñeca P y el vector que relaciona a ambos.
Figura 4.26 Sistemas de Coordenadas del Efector Final y Posición Central de la Muñeca.
Diseño a Detalle
138
La posición central de la muñeca con respecto al sistema de coordenadas del efector final es:
6p (4.14)
La posición central de la muñeca con respecto al sistema de coordenadas de la base es:
0p (4.15)
Por lo tanto, teniendo en cuenta la ubicación del efector final, se encuentra la posición del punto
central de la muñeca P con respecto al sistema de coordenadas de la base. En la figura 4.27 se
observa que la posición del centro de la muñeca P con respecto a el sistema de coordenadas del
eslabón 3 esta dado por la ecuación 4.16.
3p (4.16)
Transformando 3p en el sistema de coordenadas base, se obtiene:
0p
0A3 3p (4.17)
La ecuación 4.17 se compone de tres ecuaciones escalares con tres incógnitas. Por lo tanto la
posición y orientación del problema de cinemática inversa esta desacoplado. Teóricamente se puede
resolver la ecuación 4.17 para obtener los ángulos de las 3 primeras articulaciones (posición del
robot). Multiplicando ambos lados de la ecuación 4.17 por la inversa de 0A1, se obtiene:
(0A1)-1 0p
1A3 3p (4.18)
Sustituyendo la ecuación 4.7, 4.8 y 4.9 en la ecuación 4.18, se obtiene:
(4.19)
Diseño a Detalle
139
(4.20)
(4.21)
Donde px, py y pz están dadas por la ecuación 4.15.
La solución para se encuentra mediante la resolución de la ecuación 4.21.
(4.22)
La estructura de la cinemática muestra que la distancia entre el punto A y el centro de la muñeca P
es independiente de y , lo que implica que estas dos variables pueden ser eliminadas
simultáneamente sumando los cuadrados de las ecuaciones 4.19, 4.20 y 4.21, dando como resultado
la siguiente ecuación:
(4.23)
Donde:
La ecuación 4.23 se convierte en un polinomio, haciendo uso de las siguientes identidades
trigonométricas:
(4.24)
Sustituyendo las identidades trigonométricas anteriores en la ecuación 4.23, se obtiene la siguiente
ecuación:
(4.25)
Diseño a Detalle
140
Por lo tanto
(4.26)
Una vez obtenidos y , se obtiene , a partir del siguiente sistema de ecuaciones:
(4.27)
(4.28)
Donde:
(4.29)
La función Atan2 de dos argumentos toma en cuenta los signos de “x” y ”y” para situar el ángulo
en el cuadrante correcto.
Una vez obtenidos , y , 0A3, los 3 ángulos de las articulaciones restantes son obtenidos
multiplicando ambos lados de la ecuación 4.13 por (0A3 )-1.
0A3 = (0A3 )-1 0A6 (4.30)
Los elementos de lado derecho de la ecuación 4.30 son conocidos, por lo tanto se necesita conocer
los ángulos de rotación de las últimas 3 articulaciones del robot manipulador. Las matrices de
rotación 0R3 y 3R6 están dadas por las submatrices 3x3 de la ecuación 4.13.
Diseño a Detalle
141
Igualando el elemento 3x3 de la ecuación 4.30, se obtiene:
(4.31)
Donde:
Para obtener el ángulo de la articulación 4 ( de la ecuación 4.30,
obteniendo como resultado:
(4.32)
Igualando los elementos 2x3 de la ecuación 4.30, se obtiene:
(4.33)
La ecuación 4.32 y 4.33 dan como resultado una única solución de .
(4.34)
Para obtener el ángulo de la articulación 6 ( de la ecuación 4.30,
obteniendo como resultado:
(4.35)
Igualando los elementos 3x2 de la ecuación 4.30, se obtiene:
(4.36)
Diseño a Detalle
142
La ecuación 4.35 y 4.36 dan como resultado una única solución de .
(4.34)
La figura 4.27 muestra la programación del algoritmo que se implementa en esta etapa, con el
objetivo de enviar la señal para la ejecución de trayectorias.
Figura 4.27 Algoritmo “Activación de Ejecución de Trayectorias”.
4.5 Comunicación del Sistema.
El objetivo de establecer una correcta comunicación entre el subsistema de percepción y el
subsistema de actuación, es mantener una correcta transferencia de datos en tiempo real durante la
ejecución del proceso. Para esto es necesario determinar un orden en la ejecución de las tareas, por
lo que se requiere de señales de control durante el flujo de datos. El flujo de datos entre la unidad
procesadora (PC) al controlador IRC5 del robot se realizará por medio de la tarjeta de adquisición de
datos NI USB-6009 y mantiene la siguiente secuencia (ver figura 4.28):
1. Un sensor infrarrojo envía una señal digital al sistema de captura de imágenes, cuando
detecta un disco en el proceso, esto mediante la tarjeta de adquisición de datos.
Diseño a Detalle
143
2. La imagen captura y almacenada es sometida a un proceso de inspección de calidad
dimensional, el sistema de procesamiento al detectar que una pieza no cumple con los
parámetros de calidad establecidos, envía una señal de control por medio de la tarjeta de
adquisición de datos al controlador del robot, indicándole que ejecute la trayectoria planeada
para la intercepción de la pieza defectuosa. El algoritmo codificado en el lenguaje de
programación LabVIEW resuelve la cinemática inversa del robot manipulador, con el objeto
de enviar los valores de los ángulos que deben adoptar las coordenadas articulares para la
ejecución de la trayectoria planeada, dichas señales son digitales y por lo tanto, se utiliza un
bus de salida digital para enviarlo al controlador del robot.
3. El controlador IRC5 ABB decodifica la información enviada por el sistema de
procesamiento y activa las salidas programadas del controlador para la ejecución de las
trayectorias planeadas.
4. Al finalizar la ejecución de las trayectorias, el controlador envía una señal de control al
sistema de procesamiento por medio de la tarjeta de adquisición de datos, indicando que la
pieza ha sido interceptada y manipulada satisfactoriamente.
Las señales de control son enviadas en ambos sentidos y se utilizan para mantener un orden y evitar
la acumulación de datos en el momento de la transferencia.
Figura 4.28 Diagrama de Flujo de Datos.
Diseño a Detalle
144
4.5.1 Características de la Tarjeta de Adquisición de Datos.
La tarjeta de adquisición de datos NI USB-6009 proporciona una conexión a ocho canales de
entradas analógicas (AI), dos canales de salida analógica (AO), 12 canales de entrada-salida digital
(DIO) y un contador de 32 bits de alta velocidad con interfaz USB (ver figura 4.29). Para asegurar el
buen funcionamiento de la DAQ es necesario tomar en cuenta las siguientes características:
1. Voltaje de entrada +4.1VCD / +5.25 VCD (80mA /500mA)
2. Voltaje de salida +5V / +4.85V (200 mA).
Figura 4.29 Configuración de Puertos NI DAQ USB-6009.
4.5.1 Características del Controlador IRC5 ABB.
El controlador cuenta con 16 canales de entrada digitales y 16 de salida, de los cuales algunos están
asignados a señales preestablecidas por el fabricante. Para asegurar el buen funcionamiento del
controlador es necesario tomar en cuenta las siguientes características:
1. Voltaje de entrada 24 VCD.
2. Voltaje de salida 24 VDC.
Diseño a Detalle
145
Figura 4.30 Tarjeta DSQC 332 ABB (16 Digital Inputs & 16 Output).
4.5.3 Acoplamiento de Señales.
Debido a que los voltajes necesarios para activar las señales de la DAQ y del IRC5 son diferentes, es
necesario diseñar 2 tarjetas electrónicas, estas tarjetas tienen como función el acoplamiento de
señales, que permiten obtener el voltaje deseado en cada una de las terminales, permitiendo un
correcto flujo de datos entre el subsistema de percepción y el subsistema de actuación, sin dañar los
dispositivos utilizados. Los voltajes de conversión son de 5V a 24V y de 24 V a 5V. Para la
elaboración de las tarjetas se emplean los siguientes dispositivos:
• Optoacoplador 4N35, con el objetivo de proteger los dispositivos del sistema mediante un
aislamiento eléctrico que se establece entre los circuitos de entrada y salida.
• Buffer 74LS245, con el objetivo de mantener el voltaje y la corriente en el circuito, ya que
éste toma el voltaje de la fuente de alimentación del operacional y no de la señal que se está
introduciendo.
En la figura 4.31 y 4.31 muestran el diseño del circuito electrónico y el circuito impreso de
acoplamiento de señales de 5 volts a 24 volts y las figuras 4.33 y 4.34 muestran el diseño del
circuito electrónico y el circuito impreso de acoplamiento de señales de 24 volts a 5 volts.
Diseño a Detalle
146
Figura 4.31 Diagrama Electrónico “Acoplamiento de Señales 5 V – 24 V”.
Figura 4.32 Diagrama PCB “Acoplamiento de Señales 5 V – 24 V”.
IN8IN0
IN1
IN2
IN3IN2
IN5
IN4
IN6
IN7
IN0IN1
IN3IN4IN5IN6IN7
IN8IN9IN10IN11IN12IN13IN14IN15
IN9
IN10
IN11
IN12
IN13
IN14
IN15OUT7
OUT6
OUT5
OUT4
OUT3
OUT2
OUT1
OUT0
OUT1
OUT2
OUT3
OUT4
OUT5
OUT6
OUT7
OUT8
OUT9
OUT10
OUT11
OUT12
OUT13
OUT14
OUT16
OUT15
OUT14
OUT13
OUT12
OUT11
OUT10
OUT9
OUT8OUT0R1
330R R22K7
6
5
4
1
2
U1
OPTOCOUPLER-NPN
6
5
4
1
2
U2
OPTOCOUPLER-NPN
R3330R R4
2K7
R17330R R18
2K7
6
5
4
1
2
U9
OPTOCOUPLER-NPN
6
5
4
1
2
U10
OPTOCOUPLER-NPN
R19330R R20
2K7
R5330R R6
2K7
6
5
4
1
2
U3
OPTOCOUPLER-NPN
6
5
4
1
2
U4
OPTOCOUPLER-NPN
R7330R R8
2K7
R21330R R22
2K7
6
5
4
1
2
U11
OPTOCOUPLER-NPN
6
5
4
1
2
U12
OPTOCOUPLER-NPN
R23330R R24
2K7
R9330R R10
2K7
6
5
4
1
2
U5
OPTOCOUPLER-NPN
6
5
4
1
2
U6
OPTOCOUPLER-NPN
R11330R R12
2K7
R25330R R26
2K7
6
5
4
1
2
U13
OPTOCOUPLER-NPN
6
5
4
1
2
U14
OPTOCOUPLER-NPN
R27330R R28
2K7
R13330R R14
2K7
6
5
4
1
2
U7
OPTOCOUPLER-NPN
6
5
4
1
2
U8
OPTOCOUPLER-NPN
R15330R R16
2K7
R29330R R30
2K7
6
5
4
1
2
U15
OPTOCOUPLER-NPN
6
5
4
1
2
U16
OPTOCOUPLER-NPN
R31330R R32
2K7
A02 B0 18
A13 B1 17
A24 B2 16
A35 B3 15
A46 B4 14
A57 B5 13
A68 B6 12
A79 B7 11
CE19
AB/BA1
U17
74HC245
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
J1
BORNER_18
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
J3
BORNER_18
A02 B0 18
A13 B1 17
A24 B2 16
A35 B3 15
A46 B4 14
A57 B5 13
A68 B6 12
A79 B7 11
CE19
AB/BA1
U19
74HC245
Diseño a Detalle
147
Figura 4.33 Diagrama Electrónico “Acoplamiento de Señales 24 V – 5 V”.
Figura 4.34 Diagrama PCB “Acoplamiento de Señales 24 V – 5 V”.
IN8IN0
IN1
IN2
IN3IN2
IN5
IN4
IN6
IN7
IN0IN1
IN3IN4IN5IN6IN7
IN8IN9IN10IN11IN12IN13IN14IN15
IN9
IN10
IN11
IN12
IN13
IN14
IN15OUT7
OUT6
OUT5
OUT4
OUT3
OUT2
OUT1
OUT0
OUT1
OUT2
OUT3
OUT4
OUT5
OUT6
OUT7
OUT8
OUT9
OUT10
OUT11
OUT12
OUT13
OUT14
OUT16
OUT15
OUT14
OUT13
OUT12
OUT11
OUT10
OUT9
OUT8OUT0R1
330R R22K7
6
5
4
1
2
U1
OPTOCOUPLER-NPN
6
5
4
1
2
U2
OPTOCOUPLER-NPN
R3330R R4
2K7
R17330R R18
2K7
6
5
4
1
2
U9
OPTOCOUPLER-NPN
6
5
4
1
2
U10
OPTOCOUPLER-NPN
R19330R R20
2K7
R5330R R6
2K7
6
5
4
1
2
U3
OPTOCOUPLER-NPN
6
5
4
1
2
U4
OPTOCOUPLER-NPN
R7330R R8
2K7
R21330R R22
2K7
6
5
4
1
2
U11
OPTOCOUPLER-NPN
6
5
4
1
2
U12
OPTOCOUPLER-NPN
R23330R R24
2K7
R9330R R10
2K7
6
5
4
1
2
U5
OPTOCOUPLER-NPN
6
5
4
1
2
U6
OPTOCOUPLER-NPN
R11330R R12
2K7
R25330R R26
2K7
6
5
4
1
2
U13
OPTOCOUPLER-NPN
6
5
4
1
2
U14
OPTOCOUPLER-NPN
R27330R R28
2K7
R13330R R14
2K7
6
5
4
1
2
U7
OPTOCOUPLER-NPN
6
5
4
1
2
U8
OPTOCOUPLER-NPN
R15330R R16
2K7
R29330R R30
2K7
6
5
4
1
2
U15
OPTOCOUPLER-NPN
6
5
4
1
2
U16
OPTOCOUPLER-NPN
R31330R R32
2K7
A02 B0 18
A13 B1 17
A24 B2 16
A35 B3 15
A46 B4 14
A57 B5 13
A68 B6 12
A79 B7 11
CE19
AB/BA1
U17
74HC245
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
J1
BORNER_18
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
J3
BORNER_18
A02 B0 18
A13 B1 17
A24 B2 16
A35 B3 15
A46 B4 14
A57 B5 13
A68 B6 12
A79 B7 11
CE19
AB/BA1
U19
74HC245
Diseño a Detalle
148
4.6 Sumario.
En este capítulo se desarrolló el diseño a detalle del sistema de intercepción de piezas metálicas que
no cumplen con requerimientos de calidad, con el objetivo de obtener un modelo real, funcional y
óptimo, para la implementación del sistema.
Durante el desarrollo del diseño a detalle, se convirtió el concepto idealizado obtenido en el capítulo
3, en un modelo concreto, definiendo los parámetros requeridos para la implementación del sistema.
Esto mediante el establecimiento de parámetros en el área de trabajo, el modelado del sistema, el
diseño y programación de algoritmos en el lenguaje de programación LabVIEW, tanto para el
subsistema de percepción, como el subsistema de actuación, el establecimiento de parámetros y la
obtención del modelo cinemático del robot manipulador, la selección del método para la
intercepción de objetos (técnica de predicción, planeación y ejecución), diseño y elaboración de
tarjetas de comunicación y configuración de puertos de comunicación del sistema.
En este capítulo se analizan los resultados obtenidos durante la implementación e integración del subsistema de percepción y el subsistema de actuación.
IMPLEMENTACIÓN Y
ANÁLISIS DE RESULTADOS
555
Implementación y Análisis de Resultados
150
5. Implementación y Análisis de Resultados.
El análisis de resultados, se desarrolla a partir de la implementación e integración de los modelos
obtenidos en la etapa de diseño a detalle y tienen como objetivo la interpretación de los resultados,
los cuales determinan el significado de los resultados y cuán significativos son en su contexto
específico, lo que permite establecer una conclusión final sobre el trabajo realizado, así como una
serie de propuestas con el propósito de desarrollar innovación sobre la misma línea de investigación.
5.1 Implementación y Resultados del Subsistema de Percepción.
Retomando el objetivo del subsistema de percepción se desarrolla la toma de información útil de una
escena a partir de su proyección en dos dimensiones, permitiendo la interpretación y el análisis de
los píxeles, obteniendo resultados óptimos en las diferentes etapas.
El hardware empleado en la etapa de detección de la pieza (sensor infrarrojo), ejecuto su función de
forma óptima enviando una señal de control por medio de la tarjeta de adquisición de datos, para la
ejecución de la etapa de visualización y captura de imagen. Durante la ejecución de los algoritmos
de esta etapa se visualizo y capturo una escena, teniendo como resultado una imagen con formato de
archivo BMP (Bit Map), resolución de 640x480 pixeles y un modelo de color RGB (Red, Green,
Blue), como se muestra en la figura 5.1.
Figura 5.1 Imagen Obtenida Durante la Etapa de Visualización y Captura de Imagen.
Implementación y Análisis de Resultados
151
Posterior a la etapa antes descrita se aplican las transformaciones necesarias y extracciones de
información de la imagen capturada, con el fin de obtener los resultados para los que el sistema ha
sido diseñado, mediante el mejoramiento de calidad de las imágenes. Las primeras transformaciones
realizadas a la imagen en la etapa de preprocesamiento son la conversión del modelo de color, esto
mediante la conversión del modelo RGB (Red, Green, Blue) a un modelo HSL (Hue Saturation
Lightness) y el establecimiento de la región de interés, estas dos fases son reflejadas en la imagen
5.2.
Figura 5.2 Imagen Obtenida Durante la Fase de Conversión de Modelo de Color y Establecimiento de Región de Interés.
A partir de la imagen obtenida durante la fase anterior, se implementa la etapa de segmentación, en
esta etapa se obtuvieron óptimos resultados, mejorando la calidad en las imágenes capturadas y
logrando aislar los objetos de interés de la escena. A continuación se describe de forma breve los
filtros que se implementan en el subsistema de percepción y el resultado obtenido en cada uno de
ellos.
La aplicación del filtro de convolución espacial enfatiza los bordes que rodean el disco de corte,
creando una imagen con fondo gris, líneas blancas y negras rodeando los bordes de los objetos y
características de la imagen, como se muestra en la figura 5.3. La aplicación de este filtro da como
resultado la definición y localización de forma óptima de las características que se requiere
inspeccionar en la imagen.
Implementación y Análisis de Resultados
152
Figura 5.3 Imagen Obtenida Mediante la Aplicación de un Filtro de Convolución.
La aplicación del filtro gaussiano reduce la cantidad de variaciones de intensidad entre píxeles
vecinos, elimina aquellos píxeles cuyo nivel de intensidad es muy diferente al de sus vecinos y cuyo
origen se encuentra el proceso de adquisición y transmisión de la imagen, con esto se un conjunto de
valores entre 0 y 1. En la figura 5.4 se muestra la imagen obtenida durante esta fase del proceso.
Figura 5.4 Imagen Obtenida Mediante la Aplicación de un Filtro de Gaussiano.
La implementación de los dos filtros antes descritos permiten establecer un eje de referencia el cual
nos indica la orientación en la que la pieza viaja a través de la banda, información útil para el
subsistema de actuación del proceso (ver figura 5.5). Además mediante su aplicación identificamos
las siguientes características:
Implementación y Análisis de Resultados
153
• Número de segmentos del disco.
• Barreno del disco.
• Bordes del disco.
• Posición relativa de los segmentos.
• Orientación del disco.
Las características son identificadas sin importar la orientación en la cual se encuentre el disco sobre
la banda transportadora.
Figura 5.5 Establecimiento del Sistema de Coordenadas.
Las imágenes 5.6 a 5.9 muestra el resultado obtenido durante la aplicación del filtro de convolución
y gaussiano, identificando las características antes mencionadas.
Figura 5.6 Identificación de 9 Segmentos del Disco.
Implementación y Análisis de Resultados
154
Figura 5.7 Identificación del Barreno del Disco.
Figura 5.8 Identificación de Bordes del Disco.
Figura 5.9 Orientación del Disco.
Implementación y Análisis de Resultados
155
Posterior a la aplicación de los 2 filtros antes descritos, se realiza la conversión a imagen binaria,
obteniendo con ello como resultado una imagen binaria, en la cual cada píxel cuenta con solo uno de
dos valores posibles 1 o 0. En estas condiciones es más fácil encontrar y distinguir características
estructurales cuando se realiza la segmentación por intensidad de la imagen y reconocimiento de
estructuras, tal como se realiza en el proyecto. En la figura 5.10a se muestra la imagen binaria
obtenida durante esta fase. La fase subsecuente a la conversión a imagen binaria en la etapa de
segmentación de la imagen es la aplicación de la operación morfológica de erosión, mediante esta
operación se tomo como entrada una imagen binaria y se obtuvo como resultado una imagen
también binaria, en la cual el valor de cada píxel de la imagen binaria es basado en el valor del
correspondiente píxel de la imagen original binaria y de sus vecinos, removiendo píxeles en las
fronteras de los objetos y eliminando el ruido que existe en la imagen. La figura 5.11b muestra la
imagen obtenida a través de la aplicación de la operación morfológica de erosión.
a b
Figura 5.10 Imagen Obtenida Mediante la Conversión a Imagen Binaria y Aplicación de la Operación Morfológica de Erosión.
La fase subsecuente en la etapa de procesamiento de imágenes es la implementación del
reconocimiento de patrones, una vez extraídas las características del objeto de interés, se encuentra
una manera óptima de representar la información original que describe a cada uno de los patrones
basado en los descriptores mencionados inicialmente, esto mediante una calibración a la imagen
obtenida en la fase de binarización y aplicación de erosión (ver figura 4.11), la cual consiste en
transformar la información que contiene la imagen en unidades de pixeles a unidades de milímetros,
obteniendo como resultado las imágenes 5.12 a 5.14.
Implementación y Análisis de Resultados
156
Nota: El reconocimiento de patrones se hace en base a los parámetros considerados en el capítulo
IV.
Figura 5.11Imagen Binarizada. Figura 5.12 Comparación de Parámetros de Segmentos
del Disco.
Figura 5.13 Comparación de Parámetros de Barreno de
Disco. Figura 5.14 Comparación de Parámetros de Diámetro del
Disco.
El análisis de resultados obtenidos en la fase de comparación de parámetros y calibración se muestra
en la tabla 5.1, esta tabla registra la comparación de parámetros de una muestra de 15 piezas e indica
cuál de las piezas inspeccionadas se encuentra fuera de los parámetros establecidos. Posterior a la
ejecución de las diferentes etapas que conforman el subsistema de percepción, el resultado final
obtenido, da la pauta para la ejecución del subsistema de actuación.
Implementación y Análisis de Resultados
157
Nota: Para fines de programación se considero una tolerancia de ±1mm en la comparación de
parámetros.
Tabla 5.1 Muestra de Piezas Inspeccionadas.
No. de Pieza Diámetro de
Barreno (mm)
Diámetro de
Disco (mm)
Número de
Segmentos
Diámetro de
Segmento (mm)
Estado de la
Inspección
1 22.23 115 9 5 Aceptada
2 22.23 115 9 5 Aceptada
3 22.23 115 9 5 Aceptada
4 22.23 115 7 Fallo Rechazada
5 22.23 115.5 9 5 Aceptada
6 22.23 115.5 9 5 Aceptada
7 22.24 115 9 5 Aceptada
8 22.23 115 9 5 Aceptada
9 22.23 115 9 5 Aceptada
10 22.23 115 9 5 Aceptada
11 22.23 115 9 5 Aceptada
12 22.24 115 9 5 Aceptada
13 22.23 115 9 5 Aceptada
14 22.23 114.7 9 5 Aceptada
15 22.23 115 9 5 Aceptada
Con el objetivo de conocer la variación a partir de un promedio (media) de un grupo de medidas
durante el proceso de inspección de los discos, se calcula la media y desviación estándar, de las
lecturas obtenidas en los diámetros de barrenos, diámetros de discos y diámetros de segmentos, está
información se visualiza mediante la elaboración de un histograma. Un histograma es una
representación gráfica de una variable en forma de barras, donde la superficie de cada barra es
proporcional a la frecuencia de los valores representados (ver figura 5.15 a 5.17).
Implementación y Análisis de Resultados
158
22.2422.23
18
16
14
12
10
8
6
4
2
0
Diámetro Barreno
Frec
uenc
ia
Media 22.23Desv.Est. 0.003519N 15
Histograma de Diámetro BarrenoNormal
Figura 5.15 Histograma de Diámetro de Barreno.
115.4115.2115.0114.8114.6
12
10
8
6
4
2
0
Diámetro Disco
Frec
uenc
ia
Media 115.0Desv.Est. 0.1995N 15
Histograma de Diámetro DiscoNormal
Figura 5.16 Histograma de Diámetro de Disco.
76543210
14
12
10
8
6
4
2
0
Diámetro Segmentos
Frec
uenc
ia
Media 4.667Desv.Est. 1.291N 15
Histograma de Diámetro SegmentosNormal
Figura 5.17 Histograma de Diámetro de Segmentos.
Implementación y Análisis de Resultados
159
En la tabla 5.2 se analiza cuales son los defectos más frecuentes que aparecen en las piezas durante
el proceso de inspección y posteriormente se desarrolla un diagrama de pareto, con el objetivo de
analizar e identificar los defectos más frecuentes, para mejorar su calidad dentro del proceso (ver
figura 5.18). Tabla 5.2 Análisis de Defectos.
Tipo de Defecto Frecuencia % Frecuencia
Diámetro Barreno 0 0.00%
Diámetro de Disco 0 0.00%
No. de Segmentos 1 6.66%
Diámetro de Segmento 0 0.00%
Conteo 3 1Porcentaje 75.0 25.0
% acumulado 75.0 100.0
Frecuencia % 6.66%0.00%
4
3
2
1
0
100
80
60
40
20
0
Cont
eo
Porc
enta
je
Diagrama de Pareto de Frecuencia %
a) Diagrama de Pareto de Frecuencia.
RechazadaAceptada RechazadaAceptada
1.0
0.5
0.0
1.0
0.5
0.0
1.0
0.5
0.0
RechazadaAceptada
1.0
0.5
0.0RechazadaAceptada
Pieza = 1
Estado de Inspección
Cont
eo
Pieza = 2 Pieza = 3 Pieza = 4
Pieza = 5 Pieza = 6 Pieza = 7 Pieza = 8
Pieza = 9 Pieza = 10 Pieza = 11 Pieza = 12
Pieza = 13 Pieza = 14 Pieza = 15
AceptadaRechazada
InspecciónEstado de
Diagrama de Pareto de Estado de Inspección por Pieza
b) Diagrama de Pareto de Estado de Inspección por Pieza.
Figura 5.18 Diagramas de Pareto.
Implementación y Análisis de Resultados
160
En la figura 5.19a se muestra el resultado que se obtiene cuando una pieza cumple con los
estándares de calidad establecidos, mientras que en la figura 5.19b se muestra una pieza que no
cumplen con los estándares, por lo que esta deberá ser interceptada, mediante la ejecución del
subsistema de actuación.
a b
Figura 5.19 Estado de Inspección de la Pieza.
5.2 Implementación y Resultados del Subsistema de Actuación.
El subsistema de actuación realiza la intercepción en movimiento de las piezas rechazadas,
resultado de la inspección a la que han sido sometidos. Una vez detectada una pieza fuera de
estándares, el módulo de procesamiento de imágenes envía una señal de control al controlador del
subsistema de actuación, este indica al robot ejecutar una serie de trayectorias e interceptar la pieza
en movimiento, siendo esta retirada del proceso, al término de las trayectorias, el subsistema de
actuación envía una señal al módulo de procesamiento, indicando que la pieza ha sido interceptada.
5.2.1 Implementación Cinemática Directa del Robot Manipulador IRB 1600 ABB.
El modelo de cinemática directa del robot se reduce a encontrar la matriz de transformación
homogénea T, que relaciona un sistema de coordenadas en su efector final con un sistema de
coordenadas fijo a su base, para tal fin se aplica el método Denavit-Hartenber. Los parámetros
Denavit-Hartenber que describen al robot manipulador IRB-1600 ABB, se establecen en la tabla 5.3.
Implementación y Análisis de Resultados
161
Tabla 5.3 Parámetros Denavit-Hartenberg IRB 1600 ABB.
Articulación di (mm) ai (mm) 1 0 486.5 150 -90 2 -90 0 700 0 3 180 0 0 90 4 0 600 0 -90 5 0 0 0 90 6 0 90 0 0
En la figura 5.20 y 5.21 se realiza un modelo del robot representado por líneas mediante Matlab.
Esto se obtiene con la implementación de funciones que permiten dibujar, modificar (tanto la
longitud como la posición de los elementos que componen el robot) y asignar las respectivas
articulaciones según los parámetros de Denavit-Hartenberg (D-H) establecidos que podremos ver en
la tabla 5.3.
Figura 5.20 Modelo del Robot en Matlab.
Figura 5.21 Detalle A.
Implementación y Análisis de Resultados
162
Empleando los parámetros Denavit-Hartenberg obtenidos en la tabla 5.3, se obtienen las siguientes
matrices de transformación homogénea i-1Ai:
Matriz de transformación 0A1 = (5.1)
Matriz de transformación 1A2 = (5.2)
Matriz de transformación 2A3 = (5.3)
Matriz de transformación 3A4 = (5.4)
Matriz de transformación 4A5 = (5.5)
Matriz de transformación 5A6 = (5.6)
La matriz de transformación homogénea que relaciona el sistema entre la base y el extremo del robot 0A6 = 0A1
1A2 2A3
3A4 4A5
5A6 , está dada por la matriz 5.8.
Implementación y Análisis de Resultados
163
Matriz de transformación 0A6 = 0A3 *
3A6 =
(5.7)
Matriz de transformación 0A6 = (5.8)
En el Anexo 2, se encuentra el código para la obtención de la cinemática directa del robot IRB 1600
ABB, programado en Matlab.
5.2.2 Implementación Cinemática Inversa del Robot Manipulador IRB 1600 ABB.
Durante la aplicación del modelo de cinemática inversa, dada la posición y orientación del efector
final del manipulador respecto a su base, se obtiene la configuración que deben adoptar las
coordenadas articulares , que nos den como resultado la posición y orientación
en el espacio que se desea. Durante el proceso de intercepción de piezas se ejecutan dos trayectorias,
la primera de ella intercepta la pieza en movimiento y la segunda coloca la pieza en un área
destinada a aquellas piezas rechazadas., posterior a la ejecución de las dos trayectorias, el robot
manipulador regresa a una posición predefinida (conocida como home) que marca el sistema de
referencia en que se va a mover el robot.
Mediante la aplicación del modelo de cinemática inversa, obtenemos como resultado los siguientes
valores de configuración de las coordenadas articulares de las trayectorias involucradas en el
proceso de intercepción de piezas en movimiento, considerando los parámetros Denavit Hartenberg
establecidos en la tabla 5.3.
La posición central de la muñeca con respecto al sistema de coordenadas del efector final es:
6p (5.9)
Implementación y Análisis de Resultados
164
Figura 5.22 Distancia entre Posición Central de la Muñeca y el Efector Final.
Considerando que la pieza viaja en una trayectoria con movimiento rectilíneo uniforme a una
velocidad de 150 mm/s, la pieza es interceptada cuando la distancia entre el efector final y la pieza
es menor que en cualquier otro punto del espacio de trabajo, dando como resultado el punto
localizado en la ecuación 5.10.
La posición central de la muñeca con respecto al sistema de coordenadas de la base, para la
intercepción de la pieza es:
0p (5.10)
La posición central de la muñeca con respecto al sistema de coordenadas de la base, para la
colocación de la pieza en el área de piezas rechazadas es
0p (5.11)
Conocida la localización de los objetivos, se aplica el modelo matemático descrito en el capítulo IV
para la resolución de la cinemática inversa, obteniendo como resultado el valor que adopta cada
articulación, para que el robot llegue a la posición correcta. En las tablas 5.4, 5.5 y 5.6 se muestras
los valores que deben adoptar las articulaciones del robot, para la ejecución de las trayectorias.
Implementación y Análisis de Resultados
165
Tabla 5.4 Valores de Coordenadas Articulares en Posición de Home del Robot.
Articulación Ángulo °
0°
0°
0°
30°
0°
0°
TCP [806.29 0 1154.00]
Tabla 5.5 Valores de Coordenadas Articulares en Posición de Intercepción de Pieza.
Articulación Ángulo °
0°
36.3°
7.1°
0°
46.6°
0°
TCP [1000 0 900]
Tabla 5.6 Valores de Coordenadas Articulares en Posición de Pieza Rechaza.
Articulación Ángulo °
-39.81°
19.28°
28.92°
0°
41.80°
-39.81°
TCP [600 -500 900]
Implementación y Análisis de Resultados
166
En el Anexo 3, se encuentra el código para la obtención de la cinemática inversa del robot IRB 1600
ABB, programado en Matlab.
5.2.3 Implementación y Resultados del Método de Intercepción de Objetos en Movimiento.
Durante la implementación de la etapa de intercepción de piezas, se considera el movimiento como
predecible, debido a que la pieza se mueve en una trayectoria continua con una velocidad invariante
en el tiempo (trayectoria definida). Mediante las técnicas de visión artificial aplicadas, la orientación
de la pieza es conocida y la posición y velocidad es predicha para compensar el retardo inherente al
proceso de comunicación del sistema. Conocidos la velocidad relativa del efector final, la velocidad
de la banda transportadora y teniendo definido el espacio de trabajo, la técnica PPE (predicción,
planeación y ejecución) de trayectoria es adecuada para la intercepción de objetos en movimiento.
La técnica de PPE implementada involucra los siguientes pasos:
1. Predicción de la trayectoria del objeto.
Las características de la banda transportadora se observan en la tabla en la imagen 5.22.
Longitud
1500 mm
Ancho 0,08 mm
Altura 140 mm
Velocidad 150 mm / s
Figura 5.23 Características de la Banda Transportadora.
La trayectoria consiste en interceptar la pieza en movimiento, a una distancia de 500 mm con
respecto al eje Y de la cámara, considerando los parámetros establecidos en la tabla 4.3.
Durante la predicción se conoce el tiempo que tarda el robot manipulador en trasladarse a la
posición de intercepción, el cual está determinado por la velocidad de la banda y la distancia
Implementación y Análisis de Resultados
167
recorrida por la pieza al punto de intercepción, obteniendo como resultado 3.33 segundos (ver
expresión 5.12).
t (5.12)
Al llegar el efector final (ventosa) al punto de intercepción, esta se adhiere a la superficie de la pieza
por medio de presión, al producirse un vacio en su interior. El tiempo que tarda la ventosa en tomar
la pieza son 0.38 segundos. El tiempo se obtiene con la distancia desde el borde de la pieza hasta el
centro de este (57.5 mm) y la velocidad a la que la pieza se mueve (ver expresión 5.13).
t (5.13)
De acuerdo a los resultados obtenidos, las coordenadas del punto de intercepción con respecto al
sistema de coordenadas de la base del robot es [1000, 0, 900] y la trayectoria se ejecuta en un tiempo
de 3.33 segundos. Una vez tomada la pieza, el robot la coloca en el área de piezas rechazadas y se
coloca en posición de home, en espera de una señal de control que le indique interceptar una pieza
nuevamente.
2. Planeación de la trayectoria del robot para la intercepción del objeto.
Durante esta fase se programan las trayectorias que debe ejecutar el robot, para realizar su tarea de
forma exitosa. Para ello, se emplean los valores obtenidos en el modelo de cinemática inversa que
toman cada una de las articulaciones del robot manipulador y se desarrolla un programa en el
lenguaje de programación Rapid (lenguaje de programación empleado por el controlador IRC5
ABB), el cual consiste en una serie de instrucciones que describen las trayectorias que debe ejecutar
el robot. Cada instrucción tiene asociada una serie de parámetros que definen de forma completa la
acción a ejecutar.
El sistema permite manipular señales de entrada/salida de diversas maneras. Se definen los nombres
de las señales en parámetros del sistema y a través de una llamada a la función correspondiente se
puede leer su valor o modificarlo.
Implementación y Análisis de Resultados
168
A continuación se describe brevemente los pasos implementados durante la planeación de
trayectorias:
a. El primer paso es introducir el nombre del programa.
b. El segundo paso es la definición de las especificaciones de la herramienta mediante la
función ToolData y la definición de la pieza interceptada por el robot mediante la función
LoadData.
c. El último paso consiste en la escritura de las instrucciones del programa. Las instrucciones
implementadas son instrucciones de control de flujo, instrucciones de movimiento e
instrucciones de control en entradas y salidas. La planeación de las trayectorias se describe
en el código programado en el lenguaje de programación Rapid, este se presenta a
continuación:
! Intercepción de Piezas en Movimiento
PROC Intercepción_de_Piezas_Defectuosas ()
! Se establece la posición de home del robot.
Move J*, v7500, fine, tool 1;
! El robot espera hasta que la señal digital Pieza Defectuosa tome el valor de 1.
Wait DI Pieza_Defectuosa, 1;
! Se establece el valor que debe tomar cada articulación, para posicionarse en el punto de
intercepción.
jpos10. robax. rax_1 := 0;
jpos10. robax. rax_2 := 32.95;
jpos10. robax. rax_3 := 5.60;
jpos10. robax. rax_4 := 0;
jpos10. robax. rax_5 := 51.45;
jpos10. robax. rax_6 := 0;
Implementación y Análisis de Resultados
169
Continúa Programa Fase de Ejecución Rapid IRB 1600 ABB
MOVEABS Jpos10\NoEOffs, v7500, fine, tool 1;
! Fija el valor de la señal digital Vento a 1.
Set Vento;
! El robot se mantiene en la posición de intercepción durante 0.39 segundos.
WaitTime 0.38;
! Se establece el valor que debe tomar cada articulación, para posicionarse en el espacio de piezas
defectuosas.
jpos10. robax. rax_1 := -39.81;
jpos10. robax. rax_2 := 19.28;
jpos10. robax. rax_3 := 28.92;
jpos10. robax. rax_4 := 0;
jpos10. robax. rax_5 := 41.80;
jpos10. robax. rax_6 := -39.81;
MOVEABS Jpos10\NoOffs, v7500, fine, tool 1;
! Fija el valor de la señal digital Vento a 0.
Reset Vento;
! Fija el valor de la señal digital Pieza Interceptada a 1.
Set DO Pieza_Interceptada, on;
! Se estableceDE la posición de home del robot.
MOVE J*, v7500, fine, tool 1;
ENDPROC
Nota: En el anexo 5 se indican las principales instrucciones para señales utilizadas en el lenguaje de
programación Rapid.
Implementación y Análisis de Resultados
170
3. Ejecución de la trayectoria planeada.
La ejecución de la trayectoria del robot es generada por medio de una señal de control enviada por el
subsistema de percepción hacia el controlador del robot, la diferencia entre el estado (localización y
velocidad) del efector y el estado de la pieza a interceptar es la función objetiva a ser minimizada,
para que la intercepción ocurra, la diferencia es reducida a cero antes de que el objetivo salga del
espacio de trabajo del robot. Los puntos de la trayectoria deseada para el movimiento del robot se
ejecutan en línea basándose en la posición actual, la velocidad relativa del efector final y velocidad
del objeto en movimiento. En la figura 5.23 se muestran las fases que ejecuta el robot, durante el
proceso de intercepción de piezas.
a b
c d
Figura 5.24 Fases de la Intercepción de Piezas.
Implementación y Análisis de Resultados
171
En la figura 5.24 se muestran las pantallas gráficas obtenidas durante la operación del sistema, en la
figura 5.24a se muestra la pantalla gráfica, indicando cuando una pieza ha sido reconocida como
aceptada dentro del sistema, mientras que la figura 5.24b indica cuando una pieza ha sido
reconocida como defectuosa dentro del sistema.
a) Pantalla Gráfica indicando Pieza Aceptada.
b) Pantalla Gráfica indicando Pieza Defectuosa.
Figura 5.25 Pantallas Gráfica del Sistema.
Implementación y Análisis de Resultados
172
5.3 Implementación y Resultados del Subsistema de Comunicación.
Resultado de las pruebas desarrolladas en la implementación de la etapa de comunicación del
sistema, se obtiene una correcta comunicación entre el subsistema de percepción y el subsistema de
actuación, manteniendo una correcta transferencia de datos en tiempo real durante la ejecución del
proceso. Para esto se estableció un orden en la ejecución de las tareas y de señales de control
involucradas en el sistema, tal como se muestra en la tabla 5.7.
Tabla 5.7 Señales Empleadas en la Etapa de Comunicación del Sistema.
Nombre Descripción Dirección Asignada
(DAQ NI)
Dirección Asignada
(IRC5 ABB)
Presencia
Detecta la presencia de
una pieza en el
proceso.
DI P0.0
Pieza_Defectuosa
Indica la presencia de
una pieza defectuosa
en el proceso.
DO P0.1 DI 1
Pieza_Interceptada
Indica que el proceso
de intercepción ha sido
ejecutado.
DI P0.2 DO 2
El diseño de las tarjetas de acoplamiento de señales permiten obtener el voltaje deseado en cada una
de las terminales, obteniendo un correcto flujo de datos entre el subsistema de percepción y el
subsistema de actuación, sin dañar los dispositivos utilizados. Los voltajes de conversión obtenidos
son 5V a 24V y de 24 V a 5V. Gracias a la selección correcta de componentes durante la fase de
diseño, los dispositivos involucrados en el sistema, se mantuvieron aislados eléctricamente y
siempre se mantuvo el nivel de tensión óptimo requerido por el sistema. Las tarjetas desarrolladas se
muestran en la figura 5.25.
Implementación y Análisis de Resultados
173
Figura 5.26 Tarjetas de Acoplamiento de Señales Desarrolladas.
5.4 Análisis de Resultados del Sistema General.
En la tabla 5.8 se muestran los resultados obtenidos de forma clara y concisa, de igual manera se
indican los tiempos de repuesta de cada etapa.
Tabla 5.8 Análisis de Resultados del Sistema.
Etapa Resultado Obtenido Tiempo de
Respuesta
Detección de pieza. Señal de control para la ejecución del subsistema de
percepción. 20 ms
Captura de imagen. Imagen con resolución de 640x480 pixeles, en escala
de grises. 27. 895 ms
Procesamiento de Imagen
Conversión del modelo de
color. Obtención de una imagen con un modelo de color HSL.
161.574 ms Aplicación de Filtro de
Convolución. Enfatiza los bordes que rodean el disco de corte.
Aplicación de Filtro de
Gaussiano.
Reduce la cantidad de variaciones de intensidad entre
píxeles vecinos.
Implementación y Análisis de Resultados
174
Continúa Tabla 5.8
Binarización. Cada píxel cuenta con solo uno de dos valores posibles
1 o 0.
161.574 ms
Aplicación de la
operación morfológica
erosión.
Remueve píxeles en las fronteras de los objetos y
elimina el ruido que existe en la imagen.
Calibración de imagen. Transformar la información que contiene la imagen en
unidades de pixeles a unidades de milímetros.
Reconocimiento de
patrones.
Determina si la pieza cumple con los requerimientos
establecidos, mediante la comparación con una pieza
patrón.
Ejecución de la Trayectoria
Ejecución de la primera
trayectoria. Intercepción de la pieza defectuosa.
3.33 s Ejecución de la segunda
trayectoria. Colocación de la pieza en un área establecida.
Ejecución de la tercera
trayectoria. Vuelve el robot a posición de home.
Tiempo Final de Ejecución del Proceso 3.539469 s
Los resultados obtenidos muestran que la implementación de una estación de control de calidad
dimensional por visión artificial, es una aplicación eficiente para verificar errores dimensionales en
piezas metálicas y que la intercepción de piezas en movimiento acelera el proceso de producción.
De esta manera se comprueba que este sistema es una tecnología que ofrece resultados óptimos y es
una alternativa a los procesos manuales y humanos que existe actualmente en el sector industrial.
Implementación y Análisis de Resultados
175
5.5 Sumario.
En este capítulo se presentó de forma concisa los resultados obtenidos durante la implementación e
integración del sistema planteado. Los algoritmos diseñados en conjunto con el equipo empleado,
son una solución óptima para cumplir con los objetivos planteados.
La interpretación de resultados da la pauta para establecer las conclusiones y establecer una serie de
propuestas, que sustentan la continuación de estudio de la línea de investigación abarcada en el
presente trabajo.
Conclusiones y Propuestas
176
Conclusiones.
En esta sección se exponen las conclusiones obtenidas en el trabajo de tesis, así como propuestas
para futuros trabajos dentro de las mismas líneas de investigación. En este trabajo se implementó un
sistema para la intercepción de piezas que no cumplen con requerimientos de calidad, el problema
planteado ha sido resuelto con la integración de 3 subsistemas propuestos, logrando con ello el
alcance del objetivo.
Durante la implementación del primer subsistema (subsistema de percepción), se diseño una
estación de control de calidad, orientada a la inspección dimensional de piezas metálicas, aplicando
técnicas de visión artificial. La metodología propuesta, orientada a la configuración de plantillas de
tolerancias con base a una pieza patrón, probó ser una forma eficiente para verificar varias
tolerancias en una misma pieza, acelerando los tiempos de producción, disminuyendo los errores
cometidos en el proceso manual durante la medición y permitiendo la implementación de
herramientas virtuales acoplados a sistemas de producción automáticos. El subsistema de percepción
incluye todas las fases clásicas de un sistema de visión artificial, optimizando el tiempo de
procesamiento y el uso de recursos virtuales del sistema. Su mayor interés radica en la utilidad,
versatilidad y funcionamiento en tiempo real y la integración con el control de un manipulador
robótico
La estación de control de calidad se implemento en una plataforma LabVIEW, en donde se
programó la aplicación centrada en una interfaz gráfica de monitoreo, que le permite al usuario
conocer el estado de inspección del proceso y enviar las señales de control requeridas para la
ejecución de trayectorias del robot manipulador.
El segundo subsistema (subsistema de actuación), cumplió su objetivo, mediante el desarrollo de un
sistema para la planificación de trayectorias de un robot IRB 1600 que opera en un entorno común
de trabajo. Del mismo modo, se ha caracterizado la geometría del robot, obtenido sus parámetros de
Denavit-Hartenberg, lo que permite la modelización del entorno de operación del robot. Así mismo,
la parametrización del sistema hace posible el ajuste por calibración de los aspectos variables de los
elementos constitutivos, tales como distancia de la cámara a el punto de intercepción.
Conclusiones y Propuestas
177
La planeación de trayectorias, es un área ampliamente estudiada, se ha demostrado que con poca
programación y mediante el empleo del lenguaje de programación de propósito general (rapid) se
implemento una solución confiable al problema de planeación de trayectorias para la intercepción de
piezas defectuosas durante el proceso de inspección de calidad.
La comunicación del sistema se logró por medio de una tarjeta de adquisición de datos NI USB-
6009 y el controlador IRC5 del robot. En ambos casos, se definieron variables de control que
permitieron asegurar el flujo de datos en ambos sentidos sin que existan errores al enviar las señales.
El acoplamiento de señales fue un factor importante para el correcto funcionamiento y protección de
ambos subsistemas.
Los procedimientos utilizados proporcionan un rendimiento óptimo para el conjunto de piezas a
tratar. No obstante, gracias a su diseño modular, el sistema puede ser fácilmente modificado o
ampliado para incorporar nuevas características o procesos de clasificación más complejos. Esto
debido a la consideración de que las posibles aplicaciones de la visión industrial y manipulación de
objetos en la fabricación moderna son prácticamente infinitas. En cada industria, los objetivos de
calidad se hacen cada vez más estrictos, los volúmenes de producción aumentan y las exigencias de
mejora de la productividad son continuas.
Propuestas de Desarrollos a Futuro.
El análisis y la interpretación de resultados dan la pauta para proponer las siguientes
recomendaciones, con el objetivo de desarrollar innovación en la línea de estudio del presente
trabajo.
• Aplicar técnicas de visión artificial a sistemas más complejos.
• Diseñar una estación de control de calidad, orientada a diversas aplicaciones.
• Interacción con sistemas automáticos de manipulación más complejos.
• Estudio de técnicas más complejas y eficientes para la intercepción de objetos.
• Diseño de una base de datos de piezas inspeccionadas.
• Integración a celdas de manufactura.
Referencias
178
Referencias.
ACHA, S. 2010. Sensor. In: OMEGA, A. (ed.) Electrónica Digital Lógica Digital. AJÒ, D., DE ZUANE, F., MAINI, L., POZZA, G., ARMELAO, L. & CARBONIN, S. 2000.
Photoluminescence of Synthetic and Natural Materials for Industry and Handicraft. In Proceedings of the 15th World Conference on Non-Destructive Testing. Roma.
AKAO, Y. Year. QFD. In: International Symposium on QFD, 1997 Asahi University. ALVAREZ, G. I. 2009. Inspección Dimensional y Detección de Defectos. In: INGENIERÍA, A. D.
(ed.) Jornadas de Transferencia de Tecnología. Spain. BARRIENTOS, P. 2006. Fundamentos de Robótica, Mc. Graw Hill. BHANDARKAR, S. M., FAUST, T. D. & TANG, M. 1999. A System for Detection and Rendering
of Internal Log Defects Using Computer Tomography. Machine Vision and Applications, 14, 171-190.
BODMAROVA, A., BENNAMOUN, M. & KUBIK, K. K. 2000. Suitability Analysis of Techniques for Flaw Detection in Textiles using Texture Analysis. Pattern Analysis & Applications, 3, 254-266.
BUSCARA, M. C. 2006. Quality Control Station Via Artificial Vision For a CIM. Artificial Vision. CAJIGA, J. A. Year. Trajectory Generation for a Manipulator Robot Using Image Processing and
Splines. In: Centro de Ingeniería y Desarrollo Industrial, 2005 México. CRAIG, J. J. 2009. Robotic, México, Prentice Hall. CUNNINGHAM, S. P. & MACKINNON, S. 1998. Statistical Methods for Visual Defect
Metrology. IEEE Trans. on Semiconductor Manufacturing, 11, 48 – 53. CHACON, I. 2007. Filtrado. In: TRILLAS (ed.) Procesamiento Digital de Imagenes. CHEN, H. 1998. Polarization Phase-Based Method For Material Classification In Computer Vision.
International Journal of Computer Vision 28, 73 - 83. DAUT, D. G. & ZHAO, D. 1993. A Flaw Detection Method Based on Morphological Image
Processing. IEEE Trans. on Circuits and Systems for Video Technology, 3, 389 – 398. DUNLOP, I. & MCNAB, A. 1997. Automated Parameter Extraction for Ultrasonic Flaw Analysis.
IEEE Proceedings- Science, Measurement and Technology, 144, 93 – 99. FILBERT, D., KLATTE, R., HEINRICH, W. & PURSCHKE, M. 1987. Computer Aided Inspection
of Castings. IEEE-IAS Annual Meeting, 1087-1095. FORERO, A. J. 2008. Tecno Ingeniería Industrial. Cognex. SPAIN: Machine Vision. GOETSCH, L. & DAVIS, S. 2005. Introduction to Total Quality, USA, Merril. GONZALEZ ADRADOS, J. R., LÓPEZ, F. & PEREIRA, H. 2000. Quality Grading of Cork Planks
with Classification Models Based on Defect Characterization. Holz als Roh- und Werkstoff,, 58, 39-45.
GONZÁLEZ, G. C. 2007. Metrología, México. GONZÁLEZ, R. & WOODS, R. 2002. Digital Image Processing, New Jersey. GROOVER, M., WEISS, M., ÁNGEL, R. & ODREY, N. 1989. Robótica Industrial. Tecnología,
programación y aplicaciones, Mc Graw Hill Interamericana. GUTIÉRREZ, P. H. 2008. Calidad Total y Productividad, Mc Graw Hill. HEINEMANN, P. H., PATHARE, N. P. & MORROW, C. T. 1996. An Automated Inspection
Station for Machine Vision Grading of Potatoes. Machine Vision and Applications, 9, 14-19. HERNÁNDEZ, V. M. 2007. Estudio de la Cinemática de un Robot Industrial. Facultad de
Ingeniería Centro Universitario Querétaro.
Referencias
179
HERRERO, I. 2005. Aspectos de un Sistema de Visión Artificial. Departamento de Automatización y Control Industrial. Argentina: Universidad Nacional de Quilmes.
HTTP://WWW.ROBOTS.COM. 2009. Industrial Automation Robots and Turnkey Robotic Systems [Online]. [Accessed].
IBORRA, A., ALVAREZ, B., JIMÉNEZ, C., NAVARRO, P. & FERNÁNDEZ, C. 2001. Sistema de Inspección Visual Automatizado (SIVA) de Cigüeñales. Universidad Politécnica de Cartagena. Spain.
IÑIGO, M. & VIDAL, I. 2006. Robots Industriales Manipuladores, AlfaOmega. JUVINALL, R. C. 2005. Fundamental of Machine Component Design, New York, USA. KANG, S. J., MOON, J. C., CHOI, D.-H., CHOI, S. S. & WOO, H. G. 1998. A Distributed and
Intelligent System Approach for the Automatic Inspection of a team-Generator Tubes in Nuclear Power Plants. IEEE Trans. on Nuclear Sci, 45, 1713 – 1722.
KIM, T.-H., CHO, T.-H., MOON, Y. S. & PARK, S. H. 1999. Visual Inspection System for the Classification of Solder Joints. Pattern Recognition, 32, 565-575.
KIMURA, H., MUKAI, N. & SLOTINE, J. 1992. Adaptive Visual Tracking and Gaussian Network Algorithm for Robotic Catching. Advances in Robust and Nonlinear Control System, 43.
KO, K.-W. & CHO, H.-S. 2000. Solder joints Inspection Using a Neural Network and Fuzzy Rule-Based Classification Method. IEEE Trans. on Electronics Packaging Manufacturing, 23, 93 – 103.
KWAK, C., VENTURA, J. A. & TOFANG SAZI, K. 2000. A Neural Network Approach for Defect Identification and Classification on Leather Fabric. Journal of Intelligent Manufacturing, 11, 485-499.
LAJARA, V. J. R. & PELEGRI, S. J. 2007. Estructuras. In: ALFAOMEGA (ed.) LabVIEW Entorno Gráfico de Programación.
LATOMBE, J. C. 1991. Robot Motion Planning, United States of America, Kluwer. LEI, M. & GHOSH, B. 1993. Visually Guided Robotic Tracking and Grasping of a Moving Object.
IEEE & Conf on Decision and Control, 32. LUN-WEN, T. 2007. Position Analysis. In: JOHN WILEY & SONS, I. (ed.) Robot Analysis "The
Mechanics of Serial and Parallel Manipulators". Maryland: Institute for System Research University of Maryland.
MALAMAS, E., EURIPIDES, P., ZERVAKIS, M., PETIT, L. & LEGAT, J. 2003. Survey on Industrial Vision Systems Aplications and Tools Journal of Image and Vision Computing.
MAMIC, G. & BENNAMOUN, M. 2000. Automatic Flaw Detection in Textiles Using a Neyman-Pearson Detector. 15th Conference on Pattern Recognition.
MARK W. SPONG, SETH HUTCHINSON & VIDYASAGAR, M. 2006. Robot Modeling and Control, Wiley & Sons Inc.
MARTÍN, M. 2002. Técnicas Clásicas de Segmentación de Imagen. Inspección Visual Automática. Spain.
MARTÍNEZ, A. R. 2006. Planeación de Trayectorias para un Robot en Celdas de Manufactura. Journal of Robotic, 1.
MEHRANDEZH, M. 1999. Navigation-Guidance-Based Robot Trajectory Planning for Interception of Moving Objects. Doctorado, Universidad de Toronto.
MERY, D. 2002. Inspección Visual Automática. Machine Vision. Santiago de Chile. MERY, D., CALOBA, L. & REBELLO, J. 2003. Inspección Automática de Objetos Mediante
Procesamiento Digital de Imágenes Múltiples. 45, 431-439. MONCHALIN, J. P., NÉRON, C., BUSSIÈRE, J. F., BOUCHARD, P., PADIOLEAU, C., HÉON,
R., CHOQUET, M., AUSSEL, J. D., DUROU, G. & NILSON, J. A. 1998. Laser-Ultrasonics from the Laboratory to the Shop Floor. Advanced Performance Materials 5, 7-23.
Referencias
180
MUNDY, J. L. 1998. Image analysis and computer vision. Computer Vision, Graphics, and Image Processing, 46, 196-250.
NEUBAUER, C. 1997. Intelligent X-ray Inspection for Quality Control of Solder Joints. IEEE Trans. on Components, Packaging, and Manufacturing Technology, 20, 111 – 120.
NEWMAN, T. S. & JAIN, A. K. 1995. A Survey of Automated Visual Inspection. Computer Vision and Image Understanding, 61, 231-262.
NOBLE, A., GUPTA, R., MUNDY, J., SCHMITZ, A. & HARTLEY, R. 2008. High Precision X-Ray Stereo for Automated 3D CAD-based Inspection. EEE Trans. on Robotics and Automation, 14, 292-302.
OLLERO, B. 2007. Robótica Manipuladores y Robots Móviles, Alfa Omega. OUSLIM, M. & CURTIS, K. M. 1996. Automatic Visual Inspection Based Upon a Variant of the n-
tuple Technique. IEE Proceedings- Vision, Image and Signal Processing, 143, 301 – 309. PATEL, D., HANNAH, I. & DAVIES, E. R. 1994. Texture Analysis for Foreign Object Detection
Using a Single Layer Neural Network. IEEE International Conference on Neural Networks. PÉREZ, C. Year. Sistemas de Inspección Visual Automática en Procesos Industriales. In:
Departamento de Informática de Sistemas y Computadores, 2007 Spain. Universadad Poltécnica de Valencia.
PLATERO, D. C. 2009. Introducción a la Visión Artificial, España. RECCE, M., PLEBE, A., TROPIANO, G. & TAYLOR, J. 1998. Video Grading of Oranges in Real-
Time. Artificial Intelligence 12, 117-136. RENA, A. & ZALZALA, A. 1996. Near Time-Optimal Collision-Free Motion Planning of Robotic
Manipulaton Using an Evolutionary Algorithm. Robotics, 14. REVELLE, B., MORAN, W. & COX, A. 1997. QFD Handbook, New York USA, John Wiley &
Son. RUSSELL, S. & NORVIG, P. 2004. Inteligencia Artificial: Un enfoque moderno, Pearson
Education. SACO, R. & MONTINI, R. Year. Filtrado Espacial. In: INDUSTRIAL, D. D. A. Y. C., ed. Vision
Artificial, 2005a Argentina. Universidad Nacional de Quilmes. SACO, R. & MONTINI, R. Year. Filtrado Frecuencial. In: INDUSTRIAL, D. D. A. Y. C., ed.
Vision Artificial, 2005b Argentina. Universidad Nacional de Quilmes. SACO, R. & MONTINI, R. Year. Iluminación para las Aplicaciones de Visión Artificial. In:
INDUSTRIAL, D. D. A. Y. C., ed. Vision Artificial, 2005c Argentina. Universidad Nacional de Quilmes.
SANKARAN, V., KALUKIN, A. R. & KRAFT, R. P. 1998. Improvements to X-ray Laminography for Automated Inspection of Solder Joints. IEEE Trans. on Components, Packaging, and Manufacturing Technology, 21, 148 – 154.
SANTIAGO, S. M. Year. 2nd International Forum on Machine Vision. In: INNOVATION, H. O. R. D. A., ed. Head of R&D and Innovation, 2007 SPAIN. Technological Institute of Optics, Colour and Imaging and REDIT
SANTOS, J. & DURO, R. J. 2005. Evolución Artificial y Robótica Autónoma, México, lfaomega. SOBRADO, M. E. 2003. Machine System. Master, Pontificia Universidad Cátolica. SOSSA, J. 2006. Rasgos Descriptores para el Reconocimiento de Objeto, México, Instituto
Politécnico Nacional. SPONG, M., HUTCHINSON, S. & VIDYASAGAR, M. 2006. Robot Modeling and Control, Wiley
& Sons Inc. SUCAR, L. 2008. Planeación de Trayectorias. In: ITESM (ed.). México: Departamento de
Computación.
Referencias
181
TEMURTAS, F., TEMURTAS, H. & YUMUSAK, N. 2005. Application of Neural Generalized Predictive Control to Robotic Manipulators with a Cubic Trajectory and Random Disturbances. In: ENGINEERING, D. O. C. (ed.). Turkey: Sakarya University.
THORPE, C. 1999. The 2006 inductees: SCARA. In: INSTITUTE, T. R. (ed.). Carnegie Mellon University.
TSA, D.-M. & WU, S.-K. 2000. Automated Surface Inspection Using Gabor Filters. International Journal of Advanced Manufacturing Technology, 16, 474-482.
WILDER, J. 1989. Finding and Evaluating Defects in Glass. Machine Vision for Inspection and Measurement, Academic Press, 237-255.
WILSON, D., GREIG, A., GILBY, J. & SMITH, R. Year. Uncertainty in Automated Inspection, the Problems in the Real World. In: SYSTEMS, I. W. O. U. I. I., ed. 12th European Conference on Artificial Intelligence, 1996 Budapest, Hungary.
YONG, K. H. & NARENDRA, A. 1992. Gross Motion Planning-A Survey. ACM Computing Surveys, 24, 225-250.
ZATO, J. G. 2005. Sistema de Localización y Posicionamiento de Piezas Utilizando Visión Artificial. Machine Vision and Applications. ITESM Campus Queretaro.
ANEXOS
Anexos
183
Anexos.
A1. Especificaciones Técnicas Del Robot IRB 1600 ABB.
Anexos
184
Anexos
185
A2. Programa Cinemática Directa del Robot IRB 1600 ABB.
% CINEMÁTICA DIRECTA 6
% A06 = DIRECTKINEMATIC6(Q) devuelve la matriz de transformación del primer sistema de
% coordenadas al último en función del vector Q de variables articulares.
clear all
clc
function A06 = directkinematic6(q);
% Parámetros Denavit-Hartenberg del robot
teta = [0 -pi/2 pi 0 0 0];
d = [486.5 0 0 600 0 90];
a = [150 700 0 0 0 0];
alfa = [-pi/2 0 pi/2 -pi/2 pi/2 0];
% Matrices de transformación homogénea entre sistemas de coordenadas consecutivos
A01 = denavit(teta(1), d(1), a(1), alfa(1));
A12 = denavit(teta(2), d(2), a(2), alfa(2));
A23 = denavit(teta(3), d(3), a(3), alfa(3));
A34 = denavit(teta(4), d(4), a(4), alfa(4));
A45 = denavit(teta(5), d(5), a(5), alfa(5));
A56 = denavit(teta(6), d(6), a(6), alfa(6));
% Matriz de transformación del primer al último sistema de coordenadas
A06 = A01 * A12 * A23 * A34 * A45 * A56
Anexos
186
A3. Programa Cinemática Inversa del Robot IRB 1600 ABB.
% CINEMÁTICA INVERSA 6
% Q = INVERSEKINEMATIC6(T, CODO, MUNECA) devuelve el vector de coordenadas
% articulares correspondiente a la solución cinemática inversa de la mano del manipulador en la
% posición y orientación expresadas en la matriz T.
% CODO = 1 indica codo del robot arriba, es decir, que la articulación 3 se sitúa por encima de la
% articulación 2, mientras que CODO = -1 indica codo abajo, es decir que la articulación 2 se
% se sitúa por encima de la 3.
% MUNECA = 1 indica que la muñeca del robot se sitúa por debajo de la coordenada expresada e
% en T, mientras que MUNECA = -1 significa que la muñeca se sitúa por arriba.
clear all
clc
function q = inversekinematic6(T,codo,muneca)
T = [-1 0 0 1000; 0 1 0 0; 0 0 -1 900; 0 0 0 1];
% Parámetros Denavit-Hartenberg del robot
d = [486.5 0 0 600 0 90];
a = [150 700 0 0 0 0];
alfa = [-pi/2 0 pi/2 -pi/2 pi/2 0];
% Posición de la mano del manipulador
p = T(1:3,4)-d(6)*T(1:3,3);
% Solución de la primera articulación: q1
R = sqrt(p(1)^2+p(2)^2);
sq1=p(2)/R;
cq1=p(1)/R;
q1 = atan2(sq1,cq1);
Anexos
187
Continúa Programa Cinemática Inversa del Robot IRB 1600 ABB
% Solución de la segunda articulación: q2
r = sqrt(R^2+(p(3)-d(1))^2);
salfa = (d(1)-p(3))/r;
calfa = R/r;
cbeta = (r^2+a(2)^2-d(4)^2)/(2*r*a(2));
sbeta = sqrt(1-cbeta^2);
if codo == -1 % Codo abajo
sq2 = salfa*cbeta+sbeta*calfa;
cq2 = calfa*cbeta-salfa*sbeta;
else % Codo arriba
sq2 = salfa*cbeta-sbeta*calfa;
cq2 = calfa*cbeta+salfa*sbeta;
end
q2 = atan2(sq2,cq2);
% Solución de la tercera articulación: q3
cbeta=(a(2)^2+d(4)^2-r^2)/(2*a(2)*d(4));
sbeta=sqrt(1-cbeta^2);
beta=atan2(sbeta,cbeta);
if codo == 1 % Codo arriba
q3 = 3*pi/2-beta;
else % Codo abajo
q3 = beta - pi/2;
end
Anexos
188
Continúa Programa Cinemática Inversa del Robot IRB 1600 ABB
% Solución de la cuarta articulación: q4
% Cálculo de la matriz de transformación A03
A01 = denavit(q1, d(1), a(1), alfa(1));
A12 = denavit(q2, d(2), a(2), alfa(2));
A23 = denavit(q3, d(3), a(3), alfa(3));
A03 = A01 * A12 * A23;
x3 = A03(1:3,1);
y3 = A03(1:3,2);
z3 = A03(1:3,3);
z4 = cross(z3,T(1:3,3)); % Vector orientación a: T(1:3,3)
% Determinación del indicador de orientación omega
aux = dot(T(1:3,2),z4); % Vector orientación s: T(1:3,2)
if aux ~= 0
omega = aux;
else
aux=dot(T(1:3,1),z4); % Vector orientación n: T(1:3,1)
if aux ~=0
omega=aux;
else
omega=0;
end
end
M = muneca*sign(omega);
sq4 = -M*dot(z4,x3);
Anexos
189
Continúa Programa Cinemática Inversa del Robot IRB 1600 ABB
cq4 = M*dot(z4,y3);
q4 = atan2(sq4,cq4);
% Solución de la quinta articulación: q5
z5 = T(1:3,3); % Vector de orientación a: T(1:3,3)
A34 = denavit(q4, d(4), a(4), alfa(4));
A04 = A03 * A34;
x4 = A04(1:3,1);
y4 = A04(1:3,2);
sq5 = dot(T(1:3,3),x4); % Vector de orientación a: T(1:3,3)
cq5 = -dot(T(1:3,3),y4); % Vector de orientación a: T(1:3,3)
q5 = atan2(sq5,cq5);
% Solución de la sexta articulación: q6
y6 = T(1:3,2); % Vector de orientación s: T(1:3,2)
A45 = denavit(q5, d(5), a(5), alfa(5));
A05 = A04 * A45;
y5 = A05(1:3,2);
sq6 = dot(T(1:3,1),y5); % Vector de orientación n: T(1:3,1)
cq6 = dot(T(1:3,2),y5); % Vector de orientación s: T(1:3,2)
q6 = atan2(sq6,cq6);
% Vector de coordenadas articulares
q = [q1 q2 q3 q4 q5 q6]'
Anexos
190
A4. Programa Modelo Robot IRB 1600 ABB.
% Modelo Gráfico del Robot IRB 1600
function drawrobot3d6(q)
% Parámetros Denavit-Hartenberg del robot
teta = [0 -pi/2 pi 0 0 0];
d = [486.5 0 0 600 0 90];
a = [150 700 0 0 0 0];
alfa = [-pi/2 0 pi/2 -pi/2 pi/2 0];
% Matrices de transformación homogénea entre sistemas de coordenadas consecutivos
A01 = denavit(teta(1), d(1), a(1), alfa(1));
A12 = denavit(teta(2), d(2), a(2), alfa(2));
A23 = denavit(teta(3), d(3), a(3), alfa(3));
A34 = denavit(teta(4), d(4), a(4), alfa(4));
A45 = denavit(teta(5), d(5), a(5), alfa(5));
A56 = denavit(teta(6), d(6), a(6), alfa(6));
% Matrices de transformación del primer sistema al correspondiente
A02 = A01 * A12;
A03 = A02 * A23;
A04 = A03 * A34;
A05 = A04 * A45;
A06 = A05 * A56;
% Vector de posicion (x, y, z) de cada sistema de coordenadas
x0 = 0; y0 = 0; z0 = 0;
x1 = A01(1,4); y1 = A01(2,4); z1 = A01(3,4);
x2 = A02(1,4); y2 = A02(2,4); z2 = A02(3,4);
x3 = A03(1,4); y3 = A03(2,4); z3 = A03(3,4);
Anexos
191
Continúa Programa Modelo Gráfico del Robot IRB 1600 ABB
x4 = A04(1,4); y4 = A04(2,4); z4 = A04(3,4);
x5 = A05(1,4); y5 = A05(2,4); z5 = A05(3,4);
x6 = A06(1,4); y6 = A06(2,4); z6 = A06(3,4);
% Se dibuja el robot
x = [x0 x1 x2 x3 x4 x5 x6];
y = [y0 y1 y2 y3 y4 y5 y6];
z = [z0 z1 z2 z3 z4 z5 z6];
plot3(x,y,z);
% Se coloca una rejilla a los ejes
grid;
% Se establecen los límites de los ejes
axis([-1000 1000 -1000 1000 0 1500]);
Anexos
192
A5. Instrucciones Frecuentes en el Lenguaje de Programación RAPID.
Instrucción Función
InvertDO Invierte el valor de una señal de salida digital.
PulseDO Genera un pulso en una señal de salida digital.
Reset Reinicializa una señal de salida digital (poner a 0).
Set Activa una señal de salida digital (poner a 1).
Set AO Cambia el valor de una señal de salida analógica.
Set DO Cambia el valor de una señal de salida digital (valor simbólico; por ejemplo:
on/off, activado/desactivado).
Set GO Cambia el valor de un grupo de señales de salida digitales.
DOuput Lee el valor de una señal de salida digital.
GOutput Lee el valor de un grupo de señales de salida digitales.
AOutput Lee el valor corriente desde una señal de salida analógica.
WaitDI Espera hasta que una entrada digital sea activada o reinicializada.
WaitDO Espera hasta que una salida digital sea activada o reinicializada.
TestDI Comprueba si se ha activado una entrada digital.
dionum Define el valor simbólico de una señal digital.
signalai Define el nombre de una señal de entrada analógica.
signalao Define el nombre de una señal de salida analógica.
signaldi Define el nombre de una señal de entrada digital.
signaldo Define el nombre de una señal de salida digital.
signalgi Define el nombre de un grupo de señales de entrada digitales.
signalgo Define el nombre de un grupo de señales de salida digitales.
top related