6.1. descripciÓn de las redes...

28
129 6. REDES NEURONALES 6.1. DESCRIPCIÓN DE LAS REDES NEURONALES Las redes neuronales, introducidas en el apartado 2.2.3, son una herramienta que puede utilizarse para aplicaciones donde los análisis funcionales son complicados o imposibles, como la identificación de sistemas altamente no lineales o reconocimiento de patrones. Por ello, es ideal para calcular las desviaciones producidas por la degradación en una turbina de gas. Al igual que el GPA, a partir de la imposición de degradaciones conocidas a un modelo de motor y midiendo sus respuestas, se puede construir un sistema que reproduzca el comportamiento de la máquina frente a la degradación. Posteriormente, a través de los datos de los sensores del propio motor, se intentará averiguar si existe degradación y cuantificarla. La creación de la red neuronal se ha realizado en Matlab, programa que incorpora una herramienta (Neural Network Toolbox) con la cual es relativamente fácil diseñar, implementar, visualizar y simular redes neuronales. A modo de recordatorio, las redes neuronales se basan en elementos simples (neuronas) que trabajan en paralelo. El ajuste de las conexiones entre ellas (mediante pesos) se hace durante el modo de entrenamiento. En esta fase de training o entrenamiento, se utilizan sets de datos de entrada cuya solución se conoce (porque se han medido o simulado) y las redes se ajustan hasta que las salidas de la red neuronal concuerdan con la solución. Normalmente se usan muchos ensayos (sets de datos) hasta que se identifican las conexiones. En la siguiente figura se ilustra la idea principal de las redes neuronales: Figura 6.1. Esquema de redes neuronales Como se ha comentado anteriormente, se utilizará la herramienta Neural Network Toolbox, dentro de la cual se usa el modo Fitting. Con ello se pretende encontrar la función que ajusta los datos de entrada (datos medibles del motor, calculados) con los datos objetivo (índices de la

Upload: phunghanh

Post on 06-Sep-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

129

6. REDES NEURONALES

6.1. DESCRIPCIÓN DE LAS REDES NEURONALES

Las redes neuronales, introducidas en el apartado 2.2.3, son una herramienta que puede utilizarse para aplicaciones donde los análisis funcionales son complicados o imposibles, como la identificación de sistemas altamente no lineales o reconocimiento de patrones. Por ello, es ideal para calcular las desviaciones producidas por la degradación en una turbina de gas.

Al igual que el GPA, a partir de la imposición de degradaciones conocidas a un modelo de motor y midiendo sus respuestas, se puede construir un sistema que reproduzca el comportamiento de la máquina frente a la degradación. Posteriormente, a través de los datos de los sensores del propio motor, se intentará averiguar si existe degradación y cuantificarla.

La creación de la red neuronal se ha realizado en Matlab, programa que incorpora una herramienta (Neural Network Toolbox) con la cual es relativamente fácil diseñar, implementar, visualizar y simular redes neuronales.

A modo de recordatorio, las redes neuronales se basan en elementos simples (neuronas) que trabajan en paralelo. El ajuste de las conexiones entre ellas (mediante pesos) se hace durante el modo de entrenamiento. En esta fase de training o entrenamiento, se utilizan sets de datos de entrada cuya solución se conoce (porque se han medido o simulado) y las redes se ajustan hasta que las salidas de la red neuronal concuerdan con la solución. Normalmente se usan muchos ensayos (sets de datos) hasta que se identifican las conexiones. En la siguiente figura se ilustra la idea principal de las redes neuronales:

Figura 6.1. Esquema de redes neuronales

Como se ha comentado anteriormente, se utilizará la herramienta Neural Network Toolbox, dentro de la cual se usa el modo Fitting. Con ello se pretende encontrar la función que ajusta los datos de entrada (datos medibles del motor, calculados) con los datos objetivo (índices de la

130

degradación, conocidos). El proceso para desarrollar una red neuronal de este tipo, por tanto, se compone de varios pasos:

El primero es obtener las series de datos con la cual entrenar la red. En este análisis, se procede igual que en el Gas Path Analysis, es decir, utilizando el modelo del motor (Apartado 3.2) para simular el motor degradado y crear sets de índices de degradación y sus datos medibles correspondientes. Para ello se utilizará también el análisis DOE y así barrer la mayoría de casos posibles. Otra opción, pero que no se contempla por falta de datos experimentales, es tomar datos reales del motor en cuestión.

El segundo paso es seleccionar el tipo de red. Matlab utiliza por defecto para el modo Fitting una red de dos capas (una oculta y una de salida) y además implementa el algoritmo backpropagation de Levenberg-Marquardt, (del cual se habló en 2.2.3) el cual incluye relaciones entre neuronas de otras capas y mejora la precisión en problemas altamente no lineales. Como se verá, da buenos resultados y además es bastante rápido en el entrenamiento y en la resolución. El número de neuronas en la capa de salida depende del tamaño de los datos con los que se alimenta, mientras que el número de neuronas ocultas se puede personalizar.

El tercer paso es validar los datos. Esto quiere decir que hay que dividir el set de datos para que trabajen de la siguiente forma: algunos para el entrenamiento propiamente dicho, otros para validación y otros para comprobación. El número de datos que se escoge para validación sirven para dimensionar la red y detenerla cuando ya no puede mejorar la precisión. Los datos para comprobación no intervienen en la fase de training y sólo se usa para medir la precisión a posteriori. La cantidad de datos que se propone para cada sitio se puede escoger, siendo lo normal dotar para la fase de training a la mayoría de ellos (70-80%).

El cuarto paso es el entrenamiento de la red, lo cual se realiza según los datos y parámetros seleccionados. Esto proporciona una función en Matlab que ya está preparada para realizar simulaciones. Es interesante además comprobar la validez de la red mediante los gráficos de regresión y el histograma de resultados:

Figura 6.2. Gráfico de regresión

131

El gráfico de regresión muestra la correlación que existe entre los datos objetivo y los proporcionados por la red. De manera parecida al gráfico de probabilidad normal, cuanto más cerca se esté de la línea recta mejores serán los resultados.

El histograma sirve para comprobar que todos los resultados estarán en torno a unos errores pequeños y no hay datos que se comportan mucho peor que el resto. Para ello, en el eje de abscisas se representa el error de todos los ejemplos (instances), que pueden ser para entrenamiento (training), validación (validation) o test. En el eje de ordenadas aparece el número de ejemplos que corresponde a cada error representado.

Figura 6.3. Histograma de la red neuronal.

Presentado el modo de operar, se va a proceder a construir algunas redes neuronales y probar su eficacia para su uso como detector de la degradación.

6.2. REDES NEURONALES PARA ENSAYOS EN BANCO

La primera red que se ha construido sirve para identificar la degradación en banco: con el motor parado y a nivel del mar. Se construirá de tal forma que se pueda obtener los índices de la degradación para la potencia de la hélice en diseño (577kW).

Los parámetros de entrada de la red neuronal serán las medidas de los sensores del motor siguientes:

𝑇02,𝑚𝑓̇ ,𝑇03,𝑇045,𝑃03

132

ya que son las únicas variables conocidas. Hay más parámetros conocidos, como 𝑁 ó 𝜂𝑏, pero que al ser constantes no tendrán influencia en la red.

Para entrenar la red, hay que imponer una serie de degradaciones al modelo de motor y simular las medidas de los sensores en tales condiciones. Para ello, se utilizará el método de Superficies de Respuesta (2.3), lo cual proporcionará los ensayos que hay que realizar para recoger todas las posibles opciones sin tener que recurrir a todas las combinaciones posibles.

Se contemplan 6 índices para la degradación, ya que se utiliza la hipótesis habitual de que el cambio en la relación de presiones es el mismo que en la capacidad de flujo para cada componente. Por tanto, a continuación se muestran los parámetros que se impondrán en el modelo del motor y los rangos en los que se simularán:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.05 , 0.05]

∆𝜂𝑐 ∈ [−0.05 , 0.05]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.05 , 0.05]

∆𝜂𝑡1 ∈ [−0.05 , 0.05]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.05 , 0.05]

∆𝜂𝑡2 ∈ [−0.05 , 0.05]

Como se observa, los índices para la relación de presiones y flujo pueden tener valores positivos, que corresponderían a la degradación por erosión. De todas formas, se añaden también valores positivos a los demás índices para recoger de forma correcta el caso sin degradar, ya que de otra forma se corresponderían con casos extremos y podría no dar buenas soluciones cerca de dichas zonas.

Los ensayos a realizar la indica el DOE y para ello se ha seleccionado una Superficie de Respuesta con diseño inscrito (se recuerda que proporcionaría una serie de ensayos interiores a los rangos establecidos, por lo que no se contemplará la solución fuera de dichos rangos). Esto resulta en un total de 56 ensayos donde cada uno de los parámetros puede tener 5 valores distintos. Todos esos ensayos se realizan con el modelo del motor, obteniéndose de forma simulada las mediciones de los sensores.

Una vez que se tienen los resultados de los ensayos, ya se puede construir la red a partir de los datos simulados. Las entradas de la red son los datos de los sensores (56 ensayos de 5 datos), mientras que las salidas son los índices de degradación (56 ensayos de 6 datos). El tipo de red escogida es la que se explicó en el apartado anterior 6.1, con 15 neuronas en la capa oculta (ver figura 6.4), un 10% de los ensayos para validación y otro 10% para comprobación. La siguiente figura muestra un esquema de la red neuronal:

133

Figura 6.4. Esquema de red neuronal para ensayos en banco con 56 muestras (“input”: entrada, “hidden layer”: capa oculta, “output layer”: capa de salida, “output”: salida)

El proceso de entrenamiento es muy rápido y dura solo unos segundos. A continuación se muestra el histograma y las gráficas de regresión obtenidas:

Figura 6.5. Histograma para red neuronal de ensayos en banco (56 muestras)

134

Figura 6.6. Gráfica de regresión para red neuronal de ensayos en banco (56 muestras)

El histograma muestra que la mayoría de los resultados tiene un error en torno al 0.002 (hay que tener en cuenta que la degradación se manifiesta en torno al 0.01). Sin embargo, parece haber bastantes resultados que sí son de ese orden y por tanto pueden no ser fiables. Además, la gráfica de regresión indica que hay mucha dispersión respecto a la línea normal.

Para intentar mejorar los resultados de la red neuronal creada, se va a aumentar el número de muestras de forma importante. Por tanto, se va a crear otra red donde se simularán datos mediante varios diseños de superficies de respuesta simultáneamente: diseño inscrito, circunscrito y cubo de Behnken. Así, se recogerán muchas más muestras ya sea interiormente, en los bordes o exteriormente a los rangos establecidos. Además, para cada uno de los diseños se usarán a su vez varios rangos distintos, hasta contar con un total de 860 sets de datos.

Resumiendo, se tomarán 3 tipos de diseños distintos (los 3 explicados en el punto 2.3.1.), para 5 rangos diferentes cada uno. Los rangos que se muestran a continuación son los usados para esta red de 860 muestras:

Rango 1:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.02 , 0.02]

∆𝜂𝑐 ∈ [−0.01 , 0.01]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.02 , 0.02]

∆𝜂𝑡1 ∈ [−0.01 , 0.01]

135

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.02 , 0.02]

∆𝜂𝑡2 ∈ [−0.01 , 0.01]

Rango 2:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.04 , 0.04]

∆𝜂𝑐 ∈ [−0.02 , 0.02]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.04 , 0.04]

∆𝜂𝑡1 ∈ [−0.02 , 0.02]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.04 , 0.04]

∆𝜂𝑡2 ∈ [−0.02 , 0.02]

Rango 3:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.06 , 0.06]

∆𝜂𝑐 ∈ [−0.03 , 0.03]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.06 , 0.06]

∆𝜂𝑡1 ∈ [−0.03 , 0.03]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.06 , 0.06]

∆𝜂𝑡2 ∈ [−0.03 , 0.03]

Rango 4:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.03 , 0.03]

∆𝜂𝑐 ∈ [−0.03 , 0.03]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.03 , 0.03]

∆𝜂𝑡1 ∈ [−0.03 , 0.03]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.03 , 0.03]

∆𝜂𝑡2 ∈ [−0.03 , 0.03]

Rango 5:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.05 , 0.05]

∆𝜂𝑐 ∈ [−0.05 , 0.05]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.05 , 0.05]

∆𝜂𝑡1 ∈ [−0.05 , 0.05]

136

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.05 , 0.05]

∆𝜂𝑡2 ∈ [−0.05 , 0.05]

Como se puede observar, hay 3 rangos en los que los índices para las eficiencias es la mitad que para las presiones/gasto. Esto es así para recoger las opciones más probables en degradación: índice para la eficiencia del orden de la mitad del de presiones/gasto.

Esta segunda red tiene una estructura similar a la primera, pero con 18 neuronas en la capa oculta:

Figura 6.7. Esquema de red neuronal para ensayos en banco con 860 muestras (“input”: entrada, “hidden layer”: capa oculta, “output layer”: capa de salida, “output”: salida)

También se tomaron un 10% de las muestras para validación y otro 10% para verificación. A continuación se muestran los diagramas obtenidos para esta red, donde se muestran que el orden de los errores es parecido a la anterior pero la dispersión es mucho menor. En el diagrama de regresión, los resultados obtenidos permiten una línea normal más cercana a los resultados, por lo que se entiende que los resultados serán mejores al aumentar el número y la variedad de muestras.

Figura 6.8. Histograma para red neuronal de ensayos en banco (860 muestras)

137

Figura 6.9. Gráfica de regresión para red neuronal de ensayos en banco (860 muestras)

6.2.1 Resultados

Una vez obtenida la red, ya se puede utilizar para comprobar su eficacia en identificar la degradación de los componentes. Puesto que no se tienen medidas reales de los sensores, serán generados con el modelo de motor que se ha utilizado durante todo el análisis.

Las siguientes tablas recogen las degradaciones implantadas y las obtenidas mediante las redes neuronales para ensayos en banco.

El primer ensayo es para comprobar la identificación del motor limpio, lo que se comprueba que se realiza correctamente con las dos redes:

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -0.00% -0.00% -0.00% -0.00% Red (56m) 0.04% -0.19% -0.06% -0.14% 0.21% 0.08% Red (860m) -0.01% -0.25% 0.16% 0.05% -0.07% 0.04%

Tabla 6.1. Identificación de motor limpio

A continuación se implanta fouling o erosión en el compresor:

138

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% -0.00% -0.00% -0.00% -0.00% Red (56m) -3.89% -2.01 -0.27% 0.85% -0.10% 0.04% Red (860m) -4.00% -1.87% 0.05% 0.03% 0.08% -0.00%

Tabla 6.2. Identificación de fouling en compresor

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -8.00% -4.00% -0.00% -0.00% -0.00% -0.00% Red (56m) -6.43% -0.71% 2.03% 3.41% -2.98% -0.73% Red (860m) -7.96% -3.44% -0.24% 0.12% 0.11% -0.14%

Tabla 6.3. Identificación de fouling en compresor

Cuando la degradación es pequeña o moderada, las dos redes son capaces de identificarla (tabla 6.2), aunque la de 860 muestras se comporta algo mejor. Sin embargo, cuando se aumenta la degradación, la de pocas muestras no recoge el comportamiento de forma correcta (debido también a que en esa red el rango alcanzaba hasta el -5%). La red de 860 muestras, aunque no exacta, identifica de manera correcta el fouling impuesto al compresor.

Los siguientes ensayos se realizan para fouling en las turbinas, con casos para el mismo nivel de degradación en las dos y casos para distinto nivel de degradación:

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -4.00% -2.00% -4.00% -2.00% Red (56m) -0.32% 0.30% -4.08% -2.44% -3.94% -2.06% Red (860m) 0.04% 0.98% -4.62% -3.75% -3.85% -1.60%

Tabla 6.3. Identificación de fouling en turbinas

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -4.00% -2.00% -2.00% -1.00% Red (56m) -0.24% 0.41% -4.22% -1.29% -2.75% -1.31% Red (860m) -0.03% 0.81% -3.88% -0.69% -2.93% -1.21%

Tabla 6.4. Identificación de fouling en turbinas

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -2.00% -1.00% -4.00% -2.00% Red (56m) -0.24% 0.06% -2.14% -2.49% -3.34% -1.92% Red (860m) -0.01% 0.48% -1.85% -1.40% -4.14% -1.89%

Tabla 6.5. Identificación de fouling en turbinas

139

Es curioso cómo en este tipo de degradación las dos redes dan errores del mismo orden, incluso a veces la de menos muestras mejora los resultados (sobre todo en el primer caso). Para diferentes índices de degradación en las turbinas se comporta mejor la de 860 muestras. En cualquier caso, existen errores importantes, más acusados en la eficiencia de la turbina 1 aunque se recoge el comportamiento general.

Otro tipo de degradación en las turbinas es la erosión, en la que se invierte el signo de los índices del gasto y relación de expansión. A continuación varios ejemplos, también con distintos niveles de degradación:

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% 4.00% -2.00% 4.00% -2.00% Red (56m) -0.01% -0.13% 3.50% 0.07% 2.99% -2.24% Red (860m) 0.01% 0.03% 4.11% 0.43% 2.72% -2.41%

Tabla 6.6. Identificación de erosión en turbinas

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% 4.00% -2.00% 2.00% -1.00% Red (56m) -0.03% -0.41% 1.64% 0.61% 3.56% -2.10% Red (860m) -0.03% 0.15% 4.21% 0.20% 0.84% -1.38%

Tabla 6.7. Identificación de erosión en turbinas

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% 2.00% -1.00% 4.00% -2.00% Red (56m) 0.06% 0.18% 3.82% 0.09% 1.03% -1.37% Red (860m) -0.01% -0.23% 2.07% 0.48% 3.27% -2.23%

Tabla 6.8. Identificación de erosión en turbinas

El caso de la erosión en turbinas, como se observa, proporciona errores importantes. El caso de la red de 56 muestras no es capaz de dar un resultado aceptable, por lo que no sirve claramente para este tipo de degradación. La red de 860 muestras tiene problemas en la identificación de ∆ηt1 y ∆πt2=∆Wct2, aunque detecta los demás parámetros de manera correcta. Por tanto, aunque los resultados no son precisos, se sabe que el índice de las eficiencias no puede ser negativo, y por otra, que la magnitud es del orden de la mitad del otro índice del componente, por lo que con los índices ∆πt1=∆Wct1 y ∆ηt2 se puede dar una idea de la degradación de las turbinas.

Por último, se exponen varios casos donde la degradación afecta a todos los componentes:

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% -2.00% -1.00% -2.00% -1.00% Red (56m) -3.79% -1.54% -2.22% -0.73% -1.73% -1.00%

140

Red (860m) -3.88% -1.19% -1.87% -0.72% -2.27% -1.02% Tabla 6.9. Identificación de degradación global

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -6.00% -3.00% -4.00% -2.00% -4.00% -2.00% Red (56m) -2.51% 2.05% 0.38% 3.01% -8.50% -4.64% Red (860m) -5.38% -3.51% -4.24% -0.65% -5.34% -2.36%

Tabla 6.10. Identificación de degradación global

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% 2.00% -1.00% 2.00% -1.00% Red (56m) -3.71% -1.34% 2.56% 1.89% 0.43% -1.70% Red (860m) -4.01% -2.06% 1.85% 0.22% 1.49% -1.26%

Tabla 6.11. Identificación de degradación global

∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -6.00% -3.00% 4.00% -2.00% 4.00% -2.00% Red (56m) -5.13% -0.36% 6.61% 2.75% -0.65% -4.14% Red (860m) -6.01% -2.79% 3.45% 0.73% 2.45% -2.67%

Tabla 6.12. Identificación de degradación global

El comportamiento de la red de 860 muestras mejora bastante a la de 56, principalmente cuando la degradación es alta (tablas 6.10 y 6.12). La de 56 muestras es claramente insuficiente para identificar la degradación global, aunque a veces sí identifique algunos términos.

La red de 860 muestras sigue teniendo problemas para los índices de eficiencia de la turbina 1 y la de gasto de la turbina 2, sobre todo para erosión en turbina, como se vio anteriormente. De todas formas es suficiente para identificar el efecto de la degradación y poder cuantificarla, no con mucha exactitud pero sí de manera aproximada.

6.2.2. Efecto del ruido en las medidas

Como es habitual, en este apartado se analizará la influencia que tiene el ruido de los sensores en la eficacia del método.

Las redes neuronales se construyen a partir de datos simulados, por lo que al no ser medidas directas de los sensores no se analizan con desviaciones. Una vez se entrena la red neuronal, la identificación mediante dicha red sí se ejecuta con datos tomados de los sensores del motor, por lo que estos datos sí están sometidos a ruido.

141

El análisis que se realizará es similar al usado en el método de identificación, es decir, utilizar una variable aleatoria de tipo normal para simular el ruido de los sensores y comprobar el tipo de resultado obtenido, comparándolos con los resultados sin ruido (ver figura siguiente).

Figura 6.10. Tratamiento del ruido en redes neuronales

Para no hacer el análisis innecesariamente tedioso, ya que las conclusiones son similares para cualquier ensayo que se realice en las redes construidas, se tomará el punto de diseño y un ejemplo de degradación global.

Los sensores con los que se han trabajado en la red neuronal son los de 𝑇02,𝑚𝑓̇ ,𝑇03,𝑇045 𝑦 𝑃03, cada uno con sus desviaciones típicas. Los errores típicos de los sensores se han tomado de diversas fuentes para el caso más desfavorable, son los mismos que en el apartado 4.1.2. y se consideran todos simultáneamente:

Parámetro Desviación típica 𝑻𝟎𝟑 0.25% 𝑷𝟎𝟑 0.10% 𝑻𝒔 0.25% �̇�𝒇 1.00% 𝑻𝟎𝟒𝟓 0.25%

Tabla 6.13. Errores típicos en sensores

142

Los casos que se han simulado son para 10 y 50 variables aleatorias generadas (siguiendo la distribución normal). El primero es para la identificación del motor limpio con la red entrenada a partir de 56 ensayos:

10 muestras 50 muestras Parámetro |𝛍 − 𝐱| (%) Error NN (%) |𝛍 − 𝐱| (%) Error NN (%) ∆𝝅𝒄=∆𝑾𝒄𝒄 0.0250 0.0435 0.0430 0.0435

∆𝜼𝒄 -0.1982 -0.1881 -0.1884 -0.1881 ∆𝝅𝒕𝟏=∆𝑾𝒄𝒕𝟏 -0.0880 -0.0640 -0.0645 -0.0640

∆𝜼𝒕𝟏 -0.1411 -0.1416 -0.1416 -0.1416 ∆𝝅𝒕𝟐=∆𝑾𝒄𝒕𝟐 0.2030 0.2080 0.2078 0.2080

∆𝜼𝒕𝟐 0.0831 0.0771 0.0772 0.0771 Tabla 6.14. Errores en redes neuronales

Como se observa, los errores obtenidos con ruido (|𝛍 − 𝐱|) o sin él (error NN) son similares, ya sea en el caso de tomar la media mediante 10 muestras que mediante 50 muestras. Para la red neuronal construida con 860 ensayos, ocurre lo mismo:

10 muestras 50 muestras Parámetro |𝛍 − 𝐱| (%) Error NN (%) |𝛍 − 𝐱| (%) Error NN (%) ∆𝝅𝒄=∆𝑾𝒄𝒄 0.0047 0.0060 0.0050 0.0060

∆𝜼𝒄 -0.1537 -0.1532 -0.1537 -0.1532 ∆𝝅𝒕𝟏=∆𝑾𝒄𝒕𝟏 0.0031 0.0048 0.0035 0.0048

∆𝜼𝒕𝟏 -0.0470 -0.0471 -0.0469 -0.0471 ∆𝝅𝒕𝟐=∆𝑾𝒄𝒕𝟐 0.0386 0.0387 0.0391 0.0387

∆𝜼𝒕𝟐 0.0047 0.0042 0.0046 0.0042 Tabla 6.15. Errores en redes neuronales

Para terminar de comprobar que el ruido no afecta a la identificación en las redes neuronales construidas, se trata el caso donde se implanta una degradación global:

10 muestras 50 muestras Parámetro |𝛍 − 𝐱| (%) Error NN (%) |𝛍 − 𝐱| (%) Error NN (%) ∆𝝅𝒄=∆𝑾𝒄𝒄 0.0031 0.0031 0.0031 0.0031

∆𝜼𝒄 0.5437 0.5437 0.5437 0.5437 ∆𝝅𝒕𝟏=∆𝑾𝒄𝒕𝟏 -0.0882 -0.0881 -0.0880 -0.0881

∆𝜼𝒕𝟏 0.7007 0.7005 0.7006 0.7005 ∆𝝅𝒕𝟐=∆𝑾𝒄𝒕𝟐 -0.1967 -0.1972 -0.1970 -0.1972

∆𝜼𝒕𝟐 -0.1207 -0.1206 -0.1207 -0.1206 Tabla 6.16. Errores en redes neuronales

143

10 muestras 50 muestras Parámetro |𝛍 − 𝐱| (%) Error NN (%) |𝛍 − 𝐱| (%) Error NN (%) ∆𝝅𝒄=∆𝑾𝒄𝒄 0.0517 0.0517 0.0517 0.0517

∆𝜼𝒄 0.2295 0.2295 0.2295 0.2295 ∆𝝅𝒕𝟏=∆𝑾𝒄𝒕𝟏 -0.1117 -0.1114 -0.1116 -0.1114

∆𝜼𝒕𝟏 0.2684 0.2685 0.2684 0.2685 ∆𝝅𝒕𝟐=∆𝑾𝒄𝒕𝟐 0.1362 0.1365 0.1362 0.1365

∆𝜼𝒕𝟐 0.0017 0.0015 0.0017 0.0015 Tabla 6.17. Errores en redes neuronales

Los resultados muestran que las desviaciones respecto a la degradación implantada son las mismas con ruido que sin él. Esto es en parte porque la red no es exacta (los resultados distan de ser exactos aunque recoja el comportamiento general) pero la similitud entre los errores detectados entre los dos casos, ya sea cuando los errores son pequeños o importantes, también indica que las redes neuronales se comportan de manera efectiva frente al ruido.

Falta demostrar que las respuestas de las redes neuronales son distribuciones normales cuando las entradas también lo son. Esto se ha demostrado para todos los casos y se añade algún ejemplo a continuación:

Figura 6.11. Gráfico de probabilidad normal para Wct1, red neuronal de 860 ensayos con 50 muestras (sin degradación)

-4 -3 -2 -1 0 1 2 3 4

x 10-4

0.01

0.05

0.1

0.25

0.5

0.75

0.9

0.95

0.99

Data

Pro

babi

lity

Probability plot for Normal distribution

144

Figura 6.12. Gráfico de probabilidad normal para eft2, red neuronal de 860 ensayos con 50 muestras (sin degradación)

Como se observa, los puntos se corresponden aproximadamente con lo que cabe esperar si se tratase de una distribución normal. Existen algunas variaciones en los valores extremos pero la normal sigue siendo la función de distribución más cercana a los resultados obtenidos.

6.3. REDES NEURONALES PARA ENSAYOS EN VUELO

El segundo tipo de red que se va a construir incorporará la altura y la velocidad de vuelo. De esta forma, se podría identificar la degradación en cualquier condición (dentro de los rangos establecidos).

Los parámetros de entrada de la red neuronal serán las medidas de los sensores del motor, además de la altura y de la velocidad:

𝑇02,𝑚𝑓̇ ,𝑇03,𝑇045,𝑃03,ℎ,𝑢

Se van a utilizar los mismos 6 índices para la degradación, con los mismos rangos:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.05 , 0.05]

∆𝜂𝑐 ∈ [−0.05 , 0.05]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.05 , 0.05]

∆𝜂𝑡1 ∈ [−0.05 , 0.05]

8.55 8.6 8.65 8.7 8.75 8.8

x 10-3

0.01

0.05

0.1

0.25

0.5

0.75

0.9

0.95

0.99

Data

Pro

babi

lity

Probability plot for Normal distribution

145

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.05 , 0.05]

∆𝜂𝑡2 ∈ [−0.05 , 0.05]

También se incluyen la altura y la velocidad. De esta forma, aunque sean también entradas de la red, se puede incluir el comportamiento de dichos parámetros:

ℎ ∈ [0 , 3000]𝑚

𝑢 ∈ [0 , 50]𝑚/𝑠

El rango establecido para la altura es hasta 3000m, mientras que el de la velocidad hasta 50 m/s. En realidad, el motor puede alcanzar aproximadamente el doble de altura y de velocidad, pero se encontraron problemas en algunas combinaciones de dichos parámetros para la convergencia del modelo de motor. Esto es porque las tablas termodinámicas incluidas en el modelo no eran capaces de identificar las propiedades del aire en esas condiciones. De todas formas, se ha continuado así porque el análisis sigue siendo válido.

El DOE mediante Superficies de Respuesta con diseño inscrito resulta en un total de 100 ensayos donde cada uno de los parámetros puede tener 5 valores distintos. Al igual que antes, esos ensayos se realizan con el modelo del motor y se obtienen las mediciones de los sensores simuladas.

Existen, por tanto, 100 ensayos de 7 datos para las entradas de la red, mientras que para las salidas hay 100 ensayos de 8 datos. Se seleccionan 20 neuronas en la capa, con un 10% de los ensayos para validación y otro 10% para comprobación. La siguiente figura muestra un esquema de la red neuronal:

Figura 6.13. Esquema de la red neuronal para ensayos en vuelo (100 muestras). (“input”: entrada, “hidden layer”: capa oculta, “output layer”: capa de salida, “output”: salida)

146

Una vez entrenada la red con los datos comentados, se obtienen el histograma y las gráficas de regresión:

Figura 6.14. Histograma para red neuronal de ensayos en banco (100 muestras).

Figura 6.15. Gráfica de regresión para red neuronal de ensayos en banco (100 muestras).

147

En esta red neuronal, se puede observar que los errores son del orden del 0.002, mayores que en el caso anterior. La dispersión de los resultados es alta, con ensayos cuyo error es del orden de la degradación. Por estas razones, se realizará a continuación otra red con muchas más muestras.

La segunda red que se va a entrenar para ensayos en vuelo tomará 660 muestras, ya que incluye diseños inscritos y cubo de Behnken con los siguientes rangos para las variables del problema:

Rango 1:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.02 , 0.02]

∆𝜂𝑐 ∈ [−0.01 , 0.01]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.02 , 0.02]

∆𝜂𝑡1 ∈ [−0.01 , 0.01]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.02 , 0.02]

∆𝜂𝑡2 ∈ [−0.01 , 0.01]

Rango 2:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.04 , 0.04]

∆𝜂𝑐 ∈ [−0.02 , 0.02]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.04 , 0.04]

∆𝜂𝑡1 ∈ [−0.02 , 0.02]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.04 , 0.04]

∆𝜂𝑡2 ∈ [−0.02 , 0.02]

Rango 3:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.06 , 0.06]

∆𝜂𝑐 ∈ [−0.03 , 0.03]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.06 , 0.06]

∆𝜂𝑡1 ∈ [−0.03 , 0.03]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.06 , 0.06]

∆𝜂𝑡2 ∈ [−0.03 , 0.03]

Rango 4:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.03 , 0.03]

∆𝜂𝑐 ∈ [−0.03 , 0.03]

148

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.03 , 0.03]

∆𝜂𝑡1 ∈ [−0.03 , 0.03]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.03 , 0.03]

∆𝜂𝑡2 ∈ [−0.03 , 0.03]

Rango 5:

∆𝜋𝑐 = ∆𝑊𝑐𝑐 ∈ [−0.05 , 0.05]

∆𝜂𝑐 ∈ [−0.05 , 0.05]

∆𝜋𝑡1 = ∆𝑊𝑐𝑡1 ∈ [−0.05 , 0.05]

∆𝜂𝑡1 ∈ [−0.05 , 0.05]

∆𝜋𝑡2 = ∆𝑊𝑐𝑡2 ∈ [−0.05 , 0.05]

∆𝜂𝑡2 ∈ [−0.05 , 0.05]

Y por último:

ℎ ∈ [0 , 3000]𝑚

𝑢 ∈ [0 , 50]𝑚/𝑠

Para esta red se tomaron 15 neuronas en la capa oculta, tal y como se aprecia en la siguiente figura:

Figura 6.16. Esquema de la red neuronal para ensayos en vuelo (660 muestras). (“input”: entrada, “hidden layer”: capa oculta, “output layer”: capa de salida, “output”: salida)

A continuación se muestran los resultados del entrenamiento, donde se tomaron el 10% de las muestras para validación y un 10% para verificación.

149

Figura 6.17. Histograma para red neuronal de ensayos en banco (660 muestras).

Figura 6.18. Gráfica de regresión para red neuronal de ensayos en banco (660 muestras).

Como se puede apreciar en las gráficas anteriores, se mejora el error medio de los resultados. La dispersión también parece elevada pero bastante menor que en el caso de 100 muestras.

A continuación se analizan las dos redes para comprobar su eficiencia.

150

6.3.1. Resultados

Los ensayos que se han realizado son similares a los que se usaron en las redes neuronales para ensayos en banco. Se implantarán degradaciones conocidas en el modelo del motor para obtener datos simulados de los sensores, datos que analizará la red creada para intentar identificar la degradación impuesta.

Se harán las simulaciones para las dos redes que se han explicado anteriormente, la que usaba 100 muestras y la que usaba 660, para comprobar si tiene influencia el número de muestras tomada.

Los dos primeros ensayos se hacen para el motor limpio, en dos condiciones distintas que se usarán en todos los casos: una para 1000m de altitud y velocidad de 20m/s y otra para 2000m de altitud y 40m/s.

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -0.00% -0.00% -0.00% -0.00% Red (100m) -0.03% 0.31% -0.00% -0.05% -0.24% 0.11% Red (660m) -0.11% -0.03% 0.01% 0.13% 0.06% 0.01%

Tabla 6.18. Identificación de motor limpio

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -0.00% -0.00% -0.00% -0.00% Red (100m) 0.12% 0.11% 0.07% 0.12% -0.30% 0.05% Red (660m) 0.12% -0.01% 0.00% -0.13% -0.40% 0.03%

Tabla 6.19. Identificación de motor limpio

La identificación se hace correctamente en ambos casos, con errores más pequeños para la red de más ensayos.

A continuación se implanta fouling o erosión en el compresor:

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% -0.00% -0.00% -0.00% -0.00% Red (100m) -4.20% -1.74% 0.14% -0.43% 0.06% 0.14% Red (660m) -4.16% -1.77% -0.06% 0.05% 0.04% 0.03%

Tabla 6.20. Identificación de fouling en compresor

151

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% -0.00% -0.00% -0.00% -0.00% Red (100m) -4.51% -1.43% -0.49% -0.63% 0.48% 0.27% Red (660m) -3.80% -1.90% 0.00% -0.05% -0.08% -0.03%

Tabla 6.21. Identificación de fouling en compresor

Como se ha observado, la red de 100 muestras tiene desviaciones importantes, aunque recoge el comportamiento de forma adecuada, sin influir demasiado en los componentes que no se han degradado (las turbinas). La red de 660 muestras mejora sin duda la precisión acercándose a los valores implantados.

Si se aumentan los valores degradación, la identificación se hace menos precisa, incluso para la red de más muestras, aunque identifica de forma general el comportamiento. La red de pocas muestras se vuelve ineficaz, fallando claramente en los dos casos puesto que identifica degradaciones en las turbinas que no existen.

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -8.00% -4.00% -0.00% -0.00% -0.00% -0.00% Red (100m) -8.24% -2.92% -1.25% -2.26% -0.57% 1.00% Red (660m) -7.93% -2.91% -0.31% -0.15% -0.15% 0.05%

Tabla 6.22. Identificación de fouling en compresor

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -8.00% -4.00% -0.00% -0.00% -0.00% -0.00% Red (100m) -9.91% -1.91 -4.08% -4.97% 0.48% 2.70% Red (660m) -7.44% -3.16% -0.16% -0.09% 0.07% -0.10%

Tabla 6.23. Identificación de fouling en compresor

Los siguientes ensayos se realizan para fouling en las turbinas, para el mismo nivel en las dos y las dos condiciones que se vienen utilizando:

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -4.00% -2.00% -4.00% -2.00% Red (100m) 0.85% -1.50% -3.88% -1.99% -3.84% -1.55% Red (660m) -0.26% -0.48% -4.13% -2.01% -4.78% -2.03%

Tabla 6.24. Identificación de fouling en turbinas

152

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% -4.00% -2.00% -4.00% -2.00% Red (100m) 0.44% -1.91% -5.35% -3.96% -1.97% -0.56% Red (660m) -0.22% -0.23% -3.98% -1.31% -2.99% -2.32%

Tabla 6.25. Identificación de fouling en turbinas

Como es usual, la red de más muestras se muestra más robusta, sin llegar a ser exactos los resultados pero comportándose bien en la identificación de los componentes que fallan y sus órdenes de magnitud. La red de pocas muestras se muestra débil frente a la identificación en las turbinas, acercándose en algunos casos pero detectando degradaciones inexistentes en el compresor.

Otro tipo de degradación en las turbinas es la erosión, en la que se invierte el signo de los índices del gasto y relación de expansión. A continuación se presentan 2 ejemplos:

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% 4.00% -2.00% 4.00% -2.00% Red (100m) -0.36% 0.22% 3.79% -0.22% 2.19% -2.05% Red (660m) 0.03% -0.06% 4.16% 0.79% 3.13% -2.59%

Tabla 6.26. Identificación de erosión en turbinas

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -0.00% -0.00% 4.00% -2.00% 4.00% -2.00% Red (100m) -0.48% 0.03% 4.34% 1.29% 2.18% -2.43% Red (660m) 0.00% -0.00% 3.95% 0.48% 2.42% -2.37%

Tabla 6.27. Identificación de erosión en turbinas

En estos casos, aunque la red de 660 muestras es más precisa, ambas fallan en la identificación de la degradación en la eficiencia de la turbina 1. Los otros índices son identificados en signo y orden de magnitud, sin manifestarse muy precisa en este caso de erosión en turbinas.

Por último, se exponen varios casos donde la degradación afecta a todos los componentes:

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% -2.00% -1.00% -2.00% -1.00% Red (100m) -4.50% -1.87% -1.87% -1.19% -1.55% -0.62% Red (660m) -4.17% -1.54% -2.07% -0.95% -2.29% -0.93%

Tabla 6.28. Identificación de degradación global

153

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% -2.00% -1.00% -2.00% -1.00% Red (100m) -4.65% -1.38% -3.22% -1.71% -0.91% -0.51% Red (660m) -3.63% -1.54% -1.97% -1.04% -2.48% -0.96%

Tabla 6.29. Identificación de degradación global

En las tablas 6.28 y 6.29 se impone fouling en compresor y turbinas. La identificación es bastante buena en el caso de la red con 660 muestras, aunque no tanto en la otra.

En el caso de fouling en compresor y erosión en turbinas (tablas 6.30 y 6.31), el comportamiento es algo peor en ambos casos, confirmando el fallo en la eficiencia de la turbina 1. Los demás índices son identificados aunque de forma más pobre que en los casos anteriores.

1000m 20m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% 2.00% -1.00% 2.00% -1.00% Red (100m) -4.20% -1.83% 2.01% -0.42% 1.17% -1.07% Red (660m) -4.17% -1.94% 1.90% 0.35% 1.53% -1.26%

Tabla 6.30. Identificación de degradación global

2000m 40m/s ∆𝜋𝑐=∆𝑊𝑐𝑐 ∆𝜂𝑐 ∆𝜋𝑡1=∆𝑊𝑐𝑡1 ∆𝜂𝑡1 ∆𝜋𝑡2=∆𝑊𝑐𝑡2 ∆𝜂𝑡2 Implantada -4.00% -2.00% 2.00% -1.00% 2.00% -1.00% Red (100m) -4.66% -1.32% 1.26% -0.31% 0.81% -1.10% Red (660m) -3.95% -2.05% 1.91% 0.24% 1.30% -1.21%

Tabla 6.31. Identificación de degradación global

Estos últimos resultados para ensayos en vuelo confirman la importancia de tomar muchos ensayos para construir la red. Se sigue fallando en la identificación en la eficiencia de la turbina 1, aunque sólo se da en casos puntuales (erosión en turbina) mientras que con la identificación de los otros índices se puede detectar este comportamiento, ya que la degradación en la eficiencia suele ser del orden de la mitad que en el flujo del mismo componente.

Todo esto se ha realizado para sensores libres de ruido, aunque como se verá a continuación éste no tiene mucha influencia en la identificación mediante redes neuronales.

6.3.2. Efecto del ruido en las medidas

En este apartado se van a ver las diferencias en la identificación con ruido en los sensores con respecto al caso sin ruido. El tratamiento es exactamente igual a los realizados anteriormente en este tipo de estudios, es decir, se calculará la distribución de salida proveniente de unas distribuciones de tipo normal en la entrada que simulan los errores de los sensores.

154

Se tomarán, pues, los casos de desviación típica ya utilizados para los sensores, mientras que se considera la salida también con forma gaussiana. La media obtenida a través de 10 o 50 ensayos realizados a partir de las variables aleatorias se considerará como la solución de la red.

Se comparará el caso del motor limpio para la red de 660 muestras, donde se observa que el nivel de exactitud no cambia al implantar ruido:

10 muestras 50 muestras Parámetro |𝛍 − 𝐱| (%) Error NN |𝛍 − 𝐱| (%) Error NN ∆𝝅𝒄=∆𝑾𝒄𝒄 -0.1142 -0.1132 -0.1117 -0.1132

∆𝜼𝒄 -0.0308 -0.0301 -0.0296 -0.0301 ∆𝝅𝒕𝟏=∆𝑾𝒄𝒕𝟏 0.0095 0.0108 0.0127 0.0108

∆𝜼𝒕𝟏 0.1292 0.1291 0.1292 0.1291 ∆𝝅𝒕𝟐=∆𝑾𝒄𝒕𝟐 0.0610 0.0611 0.0615 0.0611

∆𝜼𝒕𝟐 0.0193 0.0188 0.0183 0.0188 Tabla 6.32. Errores en redes neuronales

Si se ensaya un caso con degradación global, ocurre lo mismo:

10 muestras 50 muestras Parámetro |𝛍 − 𝐱| (%) Error NN |𝛍 − 𝐱| (%) Error NN ∆𝝅𝒄=∆𝑾𝒄𝒄 -0.0435 -0.0437 -0.0437 -0.0437

∆𝜼𝒄 0.2261 0.2261 0.2262 0.2261 ∆𝝅𝒕𝟏=∆𝑾𝒄𝒕𝟏 -0.0377 -0.0385 -0.0384 -0.0385

∆𝜼𝒕𝟏 0.0477 0.0478 0.0477 0.0478 ∆𝝅𝒕𝟐=∆𝑾𝒄𝒕𝟐 -0.1473 -0.1473 -0.1475 -0.1473

∆𝜼𝒕𝟐 0.0616 0.0622 0.0620 0.0622 Tabla 6.33. Errores en redes neuronales

Por tanto, no existen diferencias apreciables en la red cuando se añaden ruidos en los componentes. De hecho, se han degradado los sensores con el caso de desviación típica más desfavorable, por lo que se demuestra el buen comportamiento de las redes neuronales frente al ruido en las medidas. En el caso de la red neuronal de ensayos en banco, se obtuvo la misma conclusión.

Por último, también se van a añadir un par de ejemplos de la respuesta de las redes al ruido, para comprobar que sigue también una distribución normal y por tanto es válida la hipótesis realizada.

155

Figura 6.20. Gráfico de probabilidad normal para Wcc, red neuronal de 660 ensayos con 50 muestras (fouling en compresor)

Figura 6.21. Gráfico de probabilidad normal para eft1, red neuronal de 660 ensayos con 50 muestras (fouling en compresor)

Como se puede observar en las figuras 6.20 y 6.21, las respuestas siguen de forma aproximada unas distribuciones normales.

-0.0423 -0.0423 -0.0422 -0.0422 -0.0422 -0.0421 -0.0421 -0.042 -0.042

0.01

0.05

0.1

0.25

0.5

0.75

0.9

0.95

0.99

Data

Pro

babi

lity

Probability plot for Normal distribution

-4 -3.9 -3.8 -3.7 -3.6 -3.5 -3.4 -3.3 -3.2 -3.1 -3

x 10-4

0.01

0.05

0.1

0.25

0.5

0.75

0.9

0.95

0.99

Data

Pro

babi

lity

Probability plot for Normal distribution

156

PÁGINA DEJADA EN BLANCO INTENCIONADAMENTE