las redes neuronales como complemento al análisis de componentes principales
DESCRIPTION
Las Redes Neuronales como complemento al Análisis de Componentes Principales. Ángel Berihuete Francisco Álvarez. Curso de doctorado 99-00 Principios de 1999. N.N. C.P.A. (Transformación Karhunen-Loève). Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. - PowerPoint PPT PresentationTRANSCRIPT
Las Redes Neuronales como complemento al Análisis de Componentes Principales
Ángel Berihuete
Francisco Álvarez
C.P.A.(Transformación Karhunen-Loève)
Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.
El espacio de de datos es transformado a un espacio de características.
Los datos están representados por el conjunto de variables que aportan mayor información intrínseca
Producimos una reducción de la dimensionalidad
N.N.
• Distintas topologías de Red Neuronal:
• Perceptrón (multicapa)
• S.O.M.
• Hopfield
• Aprendizajes:
• Supervisado
• No supervisado
Curso de doctorado 99-00
Principios de 1999
Topología de la red
Aprendizaje de la redSe actualizan los pesos de la red neuronal para conseguir la función deseada.
Curso de doctorado 00-01
Francisco Álvarez
Andrés Jiménez
Ángel Berihuete
• Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.
• El espacio de de datos es transformado a un espacio de características.
• El conjunto está representado por el conjunto de variables con mayor información intrínseca
• Generamos una reducción de la dimensionalidad
• Distintas topologías de Red Neuronal:
• Perceptrón (multicapa)
• S.O.M.
• Mapas autoorganizados de Kohonen
• Aprendizajes:
• Supervisado
• No supervisado
¡Estamos de enhorabuena!
Una sola neurona lineal con un aprendizaje del tipo Hebb para sus pesos, puede evolucionar en un filtro para la primera componente principal de los datos. (Oja, 1982)
Generalización: Algoritmo G.H.A.
Red con dos niveles Red Progresiva Cada neurona en la capa de salida es lineal. l < m El aprendizaje es de tipo Hebbian Los pesos tienden a las componentes
principales de los datos
Abril de 2001Implementamos el algoritmo en Matlab
213
100
8
56
25
34
255
0
2 iteraciones 100 iteraciones 2000 iteraciones
¿Cómo aprende la red?
Reconstruyendo la imagen
21 3 100 256 25 69 101 12
• Ratio de compresión.
• Error mínimos cuadrados.
• Almacenamos la matriz de pesos para un una nueva foto.
Mejora del algoritmo: Filtro de Entropía
Seleccionamos los datos que tienen mayor entropía relativa dentro de la imagen.
• Menor tiempo de computación.• Obtenemos un error de mínimos cuadrados menor.
Nuevas líneas de investigación
• Análisis de Componentes Independientes.• Teoría de la información.• Programación en hardware paralelo.