Download - Resumen Filtro de Kalman Equipo 3
Diseño de esquemas de control para sistemas lineales
Tarea 5: Resumen de Filtro de Kalman
Ávila Hernández Pedro Enrique
García Vega Saulo Iván
Gómez González Cristhian
Reyes Morales Rigoberto
Valenzuela Montes Rubén
19 de mayo de 2014
1. Información general
1.1. 1.1 Sobre el �ltro de Kalman
1.1.1. Que es el �ltro de Kalman
Teóricamente, es un estimador para lo que se conoce como problema cuadrático lineal
que consiste en la estimación instantánea de un estado de un sistema dinámico lineal
perturbado por ruido blanco. Utiliza mediciones linealmente relacionadas con el estado
pero corrompidas por ruido blanco. Es un estimador estadísticamente óptimo con respecto
a cualquier otra función cuadrática estimadora del error.
Prácticamente, es el más grande descubrimiento en la historia de la teoría de esti-
mación estadística y quizás el más grande descubrimiento del siglo 20. Sus aplicaciones
inmediatas han sido en el control de sistemas dinámicos complejos (aviones, procesos de
manufactura, naves o naves espaciales). Con el �ltro de Kalman es posible inferir informa-
ción perdida de mediciones indirectas y ruidosas de las variables de un sistema. También
se utiliza para predecir el curso futuro de un sistema dinámico que la gente probablemente
no puede controlar.
Para este libro, el �ltro de Kalman es:
Es una herramienta matemática. Se utiliza para facilitar y e�ciente la solución de
algunos problemas.
Es un programa de computadora. Utiliza una representación �nita de un numero
�nito de variables
1
Es una caracterización estadística consistente de un problema de estimación. Re-
produce el estado actual del sistema incluyendo la in�uencia estadística de pertur-
baciones dinámicas aleatorias y los efectos de todas las mediciones pasadas.
1.1.2. Como llegó a ser llamado un �ltro
Su nombre se debe a que no únicamente separa dos o más señales mezcladas sino que es
capaz de a partir de variables dependientes medibles estimar las variables independientes
que le forman.
1.1.3. Sus fundamentos matemáticos
Mínimos cuadrados, teoría de probabilidad, dinámica de sistemas, sistemas estocásti-
cos. Forma parte de los fundamentos de la teoría de control moderna y es un subconjunto
de la teoría de decisión estadística.
1.1.4. Para que se utiliza
Estimación del estado de un sistema dinámico. El �ltro de Kalman permite estimar
el estado con cierto tipo de comportamiento aleatorio mediante el uso de información
estadística.
Análisis del desempeño de los sistemas de estimación tales como sensores.
El �ltro de Kalman utiliza una caracterización paramétrica de la probabilidad de distribu-
ción de sus errores de estimación en la determinación de las ganancias de �ltrado óptimo,
y esta distribución de probabilidad puede ser utilizada en la evaluación de su rendimiento
como una función de los �parámetros de diseño� de un sistema de estimación, tales como:
Tipos de sensores a utilizar
Locaciones y orientaciones de varios tipos de sensores con respecto al sistema a ser
estimado.
Las características del ruido admisible de los sensores
Métodos de pre�ltro para ruido suavizado del sensor
Frecuencias de muestreo para varios tipos de sensores
El nivel de simpli�cación del modelo para reducir los requerimientos de implemen-
tación
La capacidad analítica del formalismo del �ltro de Kalman permite al diseñador asignar
un error objetivo a los subsistemas de un sistema de estimación y a cambio de los errores
objetivos asignados optimizar el costo u otros medidas de desempeño mientras se alcanza
un nivel requerido de precisión.
2
1.2. Sobre métodos de estimación óptima
1.2.1. Inicios de la teoría de estimación óptima
El primer método para la formación de una estimación óptima de datos ruidosos es el
método de mínimos cuadrados, se le atribuye a Gauss en 1795, cuando él tenía 18 años. La
inevitable medición de errores data de los tiempos de galileo. Este método fue utilizado
para determinar la órbita del planeta enano Ceres en el año 1801.
1.2.2. Método de mínimos cuadrados
El método de mínimos cuadrados determinar un estado o vector estimado en base a
x = G−1HT z
Donde G = HTH se denomina matriz gramiana y es el vector medido o función de x
En el caso en el que la matriz gramiana es invertible, es decir no singular, la solución x
se denomina solución mínima cuadrada del problema de inversión lineal sobredeterminado.
Si el determinante de H es cero,x no tiene solución única, en caso contrario la solución
de x es única.
1.2.2.1 Mínimos cuadrados en tiempo continuo
Este método también puede ser aplicado a vectores modelado de forma paramétrica
en tiempo continuo utilizando la siguiente expresión:
x = G−1[
tfˆ
t0
HT (t)z(t)dt]
Donde G =´ tft0HT (t)H(t)dt es la matriz gramiana no singular
3
1.2.3. Matriz gramiana y observabilidad
La observabilidad de un conjunto de variables desconocidas depende de si sus valores
son únicamente determinables a partir de un conjunto de restricciones dadas y expresadas
como ecuaciones que involucran funciones de las variables desconocidas. Un conjunto
de variables desconocidas se dice observable si y solo si sus valores son determinables
únicamente a partir de un conjunto de restricciones dadas y se dice no observable si éstas
no son únicamente determinables a partir de las restricciones dadas.
La condición de no singularidad de la matriz Gramiana es una caracterización algebrai-
ca de la observabilidad cuando las ecuaciones de restricción son lineales en las variables
desconocidas. También aplica cuando las ecuaciones de restricción no son exactas debido
a errores en los parámetros supuestamente conocidos de las ecuaciones.
1.2.4. Modelo matemático de la incertidumbre
Los primeros indicios de la teoría de probabilidad se remontan al renacimiento don-
de Girolamo Cardano desarrollo un análisis preciso de las probabilidades de juegos que
utilizan dados. Aseguro que la precisión de estadísticas empíricas mejoran conforme el
número de pruebas. Otros desarrollos fueron realizados por Pascal, Huygens, Fermat a
quien se le considera por algunos el padre de la teoría de probabilidad. Así mismo otras
contribuciones fueron realizadas por Bayes, Moivre, Laplace, Legendre y Gauss.
En la primera mitad del siglo 20 la probabilidad tomó más importancia. En este
siglo surge la idea de que las leyes de la naturaleza abarcan fenómenos aleatorios y que
pueden ser tratados como modelos probabilísticos. Maxwell inicia la disciplina cientí�ca de
mecánica estadística, Markov desarrolla la teoría de los procesos y cadena de Markov, la
cual establece que la variación instantánea con el tiempo de la distribución de probabilidad
de los posibles estados de un proceso es determinado mediante la distribución actual la
cual incluye los efectos de toda la historia pasada del proceso.
La primer teoría formal de estimación óptima para sistemas que involucran procesos
aleatorios se le atribuye al ruso Andrei Nikolaeovich Kolmogorov. Así mismo, junto Nor-
bert Wiener se les atribuye la fundación de mucha de la teoría de predicción, suavizado
y �ltrado de los procesos de Markov.
1.2.5. El �ltro de Wiener-Kolmogorov
Norbert Wiener fue uno de los más famosos prodigios del siglo 20. A la edad de 18 años
ya contaba con un doctorado en matemáticas por la universidad de Harvard. Finalizo su
vida siendo profesor en el MIT.
Desarrolló el �ltro de Wiener-Kolmogorov, nombró y promovió la cibernética. Algunos
de sus principales logros matemáticos son las funciones de potencia �nita y la prueba
4
mediante la transformada general de Fourier que la transformada del ruido blanco es
ruido blanco.
1.2.5.1 El desarrollo del �ltro de Wiener-Kolmogorov
En los primeros años de la 2° guerra mundial se le solicito a Wiener desarrollar un
controlador para predecir y el curso futuro de los aeroplanos y dirigir fuego antiaéreo con
información ruidosa de radar. Debido a la velocidad de los aeroplanos las balas tenían
que ser disparadas hacia el futuro.
La solución de Wiener utilizó mediciones de probabilidad en funciones espaciales pa-
ra representar dinámicas inciertas, el encontró la solución para la predicción del error a
partir de mínimos cuadrados en términos de funciones de autocorrelación de las señales
y el ruido. La solución en forma de un operador integral se sintetizo con circuitos analó-
gicos dadas ciertas restricciones en la regularidad de las funciones de autocorrelación. Su
enfoque representa la naturaleza probabilística de fenómenos aleatorios en términos de
densidades espectrales de potencia.
En 1941 Kolmogorov publicó un predictor lineal óptimo para sistemas discretos análo-
go al de Wiener justo cuando éste terminaba su trabajo en un predictor de tiempo con-
tinuo.
El trabajo de Wiener se desclasi�co en la última parte de los 1940's en �Extrapolation,
Interpolation, and Smoothing of Stationary Time Series� o �Times series� o también
conocido como �Yellow Peril�.
1.2.6. El �ltro de Kalman
Rudolf Emil Kalman nació el 19 de mayo de 1930 en Budapest. Su familia emigro de
Hungría a los estados unidos debido a la segunda guerra mundial. El MIT le otorgó los
grados de licenciatura y maestría en ingeniería eléctrica en 1953 y 1954. Su tema de tesis
fue el comportamiento de las soluciones de ecuaciones diferenciales de segundo orden,
expone que estas soluciones no eran del todo soluciones a tales ecuaciones y que de hecho
presentaban un comportamiento caótico.
Hasta 1955 desarrolla sistemas de control para E.I. Du Pont company, año en el que
obtiene el puesto de profesor en la Universidad de Columbia conocida por sus trabajos
en teoría de control. Enseña allí hasta 1957, año en el que consigue el grado de doctor.
En 1956 trabaja como investigador en Business Machines Corporation, y posterior-
mente seis años como investigador en el centro de investigación Glenn L. Martin Company
en Baltimore, el Instituto de Investigación de Estudios Avanzados (RIAS).
1.2.6.1 Descubrimiento del �ltro de Kalman
Durante el año 1958 Air Force O�ce of Scienti�c Research �nanció a Kalman y a
Richard S. Bucy para realizar investigación avanzada en estimación y control en RIAS.
5
A �nales de noviembre durante un viaje de regreso a Baltimore en tren, éste se detuvo
casi por una hora a las afueras de Baltimore. Fue aquí donde Kalman pensó por primera
vez en porque no aplicar la noción de variables de estado a el problema del �ltro de
Wiener-Kolmogorov.
La lectura del libro Teoría de la probabilidad de Loève y el haber visto de forma
equivalente expectación y proyección fueron para Kalman fundamentales para el desarrollo
del �ltro que lleva su nombre.
El �ltro de Kalman es la culminación de una progresión de modelos y sus asociados
métodos de estimación óptima para procesos dinámicos.
1. Los modelos de Wiener�Kolmogorov utilizan densidad espectral de potencia (PSD)
en el dominio de la frecuencia para caracterizar las propiedades dinámicas y esta-
dísticas de un proceso dinámico. Sus estimadores óptimos se derivan de PSD los
cuales pueden ser estimadas a partir de la medición de las salidas del sistema.
2. Teóricos del control utilizan ecuaciones diferenciales lineales como modelos de sis-
temas dinámicos. Lo que dio lugar al desarrollo de modelos mixtos en el cual las
funciones de sistemas dinámicos son excitadas por ruido blanco. Los coe�cientes de
las ecuaciones diferenciales determinan la forma de la salida PSD y ésta a su vez
de�ne el estimador Wiener�Kolmogorov. Este enfoque permite que el modelo diná-
mico de un sistema sea variante en el tiempo. Estas ecuaciones diferenciales lineales
pueden ser modeladas como un sistema de ecuaciones de primer orden que han sido
llamadas espacio de estado (modelo en variables de estado)
El siguiente paso de los avances anteriores, el cual realizó Kalman, fue el desarrollo de
métodos de estimación equivalentes para un modelo variante en el tiempo de variables de
estado.
Richard S. Bucy reconoció que el �ltro de Wiener �Kolmogorov es equivalente a una
matriz valuada de ecuaciones diferenciales, así mismo reconoció que esta ecuación dife-
rencial no lineal era del mismo tipo que la que estudio Jacopo Francesco Riccati dos siglos
antes, ahora llamada ecuación de Riccati. Uno de los mayores logros de Kalman y Bucy
fue probar que la ecuación de Riccati puede tener una solución estable aun cuando la
dinámica del sistema es inestable siempre que este sea controlable y observable.
Con la suposición adicional de dimensión �nita Kalman fue capaz de derivar a partir
del �ltro de Wiener�Kolmogorov el �ltro de Kalman. Con el cambio al espacio de estados
los conocimientos matemáticos necesarios son los que puede alcanzar un estudiante sin
posgrado.
Resultados tempranos. El astrónomo danés Thorvald Nicolai Thiele (1838�1910), ha-
bía derivado lo que es esencialmente el �ltro de Kalman para procesos escalares y algunas
6
de las ideas fundamentales del �ltro de Kalman habían sido ya publicadas Peter Swerling
en 1959 y por el ruso Leont'evich Stratonovich 1960.
1.2.6.2 Introducción al �ltro de Kalman
Debido a que existía cierto escepticismo en las ideas de Kalman por parte de sus
compañeros, Kalman decide publicar primero en una revista de ingeniería mecánica. Pos-
teriormente su segundo artículo en el que trata el caso en el tiempo continuo, con Bucy
como coautor fue rechazado porque uno de los evaluadores dijo que no podía ser verdad.
Sin embargo Kalman siguió presentando su �ltro y fue aceptado en todos lugares. Ha
llegado a ser base de tesis doctorales en ingeniería eléctrica y de temas de investigación
en varias universidades.
1.2.6.3 Aplicaciones tempranas: la in�uencia de Stanley F. Schmidt.
La quizás primer aplicación del �ltro de Kalman la realizó Schmidt para estimar
y controlar la trayectoria para el proyecto Apollo que tuvo como misión ir a la luna y
regresar. Schmidt descubrió el �ltro de Kalman extendido el cual es utilizado ampliamente
en aplicaciones no lineales en tiempo real del �ltro de Kalman. Schmidt promovió este
�ltro entre personas involucradas en trabajos similares. Fue utilizado en el sistema de
orientación del Apollo y a mediados de los 1960's en el sistema de navegación integrado
del transporte aéreo C5A diseñado por Lockheed Aircraft Company. Así mismo este �ltro
resolvió los problemas de fusión de datos asociados a la combinación de datos de un radar
y sensores inerciales para estimar la trayectoria de los aeroplanos y el problema de rechazo
de datos asociado con la detección de errores exógenos en datos de medición. Fue parte
integral de casi todo sistema de estimación de trayectoria y sistema de control de ese
entonces.
1.2.6.4 Otros logros de Rudolf Emil Kalman
Alrededor del año 1960 Kalman mostró que la noción de observabilidad para sistemas
dinámicos tiene una relación algebraica dual con la controlabilidad, es decir, mediante el
cambio correcto de los parámetros del sistema un problema podía ser convertido en el
otro. Participo en el desarrollo de la teoría de la realización, la cual buscaba encontrar un
modelo de un sistema para explicar el comportamiento de entrada/salida de un sistema
observado. En 1985 recibió el premio de Kioto (Equivalente al premio nobel japonés) y
en 1990 con motivo de su cumpleaños número 60 se convocó a un simposio internacional
para honrar sus logros pioneros en la teoría de sistemas matemáticos.
1.2.6.5 Impacto del �ltro de Kalman en la tecnología.
Se le considera el más grande descubrimiento del siglo 20 en teoría de estimación.
Fue uno de los posibilitadores de las tecnologías para la era espacial. Hace posible la
navegación precisa y e�ciente de las naves espaciales.
1.2.6.6 Ventajas relativas de los �ltros de Kalman y de Wiener-Kolmogorov
7
1. La implementación con electrónica analógica del �ltro de Wiener-Kolmogorov opera
a un mejor rendimiento que el �ltro digital de Kalman.
2. El �ltro de Kalman se puede implementar como un algoritmo en una computadora
y aunque puede llegar a ser más lento que su implementación analógica tiene mucha
más precisión.
3. El �ltro de Wiener-Kolmogorov no requiere de modelos de procesos estocásticos
�nito dimensionales para la señal y ruido.
4. El �ltro de Kalman no requiere de dinámicas determinísticas o de que el proceso
aleatorio tenga propiedades estacionarias. Se puede aplicar a procesos estocásticos
no estacionarios.
5. El �ltro de Kalman es compatible con formulaciones en espacio de estados de con-
troles óptimos para sistemas dinámicos. Además la propiedad de ser útil de forma
dual, tanto para estimar como para controlar estos sistemas.
6. El �ltro de Kalman necesita de menos preparación matemática para ser utilizado
que el �ltro de Wiener-Kolmogorov.
7. El �ltro de Kalman provee de información estadística para detectar y rechazar
medidas anómalas
1.2.7. Métodos de implementación.
1.2.7.1 Problemas de estabilidad numérica
El éxito del �ltro de Kalman depende de la solución de algunos problemas de su
implementación, ya que en algunas aplicaciones los errores de redondeo tienden a acumu-
larse y degradar su rendimiento. Muchas de las mejores implementaciones consistieron en
adaptaciones de métodos previamente derivados del problema de mínimos cuadrados.
1.2.7.2 Correcciones tempranas
Se descubrió tempranamente que al forzar la simetría en la solución a la ecuación
de Riccati se mejoraba su aparente estabilidad numérica, así mismo se descubrió que al
incrementar la covarianza del proceso de ruido en ésta ecuación la in�uencia de los errores
de redondeo mejoraba. Estas correcciones hicieron al �ltro de Kalman más robusto contra
el error por redondeo.
1.2.7.3 James E. Potter (1937�2005) y el �ltro de raíz cuadrada
La implementación del �ltro de Kalman en computadoras de 15 bits de punto �jo tenía
como problema la implementación de la solución a la ecuación de Riccati. Este problema
fue solucionado por James E. Potter quien propuso expresar la matriz de covarianza como
factores de Cholesky:
8
P = CCT
Y expresando las ecuaciones de actualización observacionales en términos de los fac-
tores C de Cholesky en lugar de P. Esta solución fue numéricamente más estable en la
implementación del �ltro a expensas de incrementar la complejidad computacional. La
implementación más e�ciente fue publicada por Bennet en 1967.
1.2.7.4 Filtro UD y de raíz cuadrada mejorados
En los 1970´s se desarrollan algoritmos más rápidos para el �ltro de raíz cuadrada a
partir de los trabajos en la NASA de Dyer y McReynolds en métodos de actualización
temporal de los factores de Cholesky.
1971 Kaminski's introduce extensiones de la matriz de covarianza y de información de
los �ltros.
1972 Agee y Turner introducen el primer algoritmo de factores triangulares para la
actualización observacional.
1973 Carlson publica el algoritmo triangular rápido.
1974 Bierman y Thornton publican los métodos �square-root-free� y actualización
temporal asociada.
Los anteriores siguen manteniendo la misma complejidad computacional que el �ltro
de Kalman pero con una mayor estabilidad numérica.
1.2.7.5 Métodos de factorización
Los métodos de raíz cuadrada utilizan descomposición de matrices. Uno de ellos es la
descomposición QR, donde Q es una matriz ortogonal y R una matriz triangular obtenida
a partir de transformaciones de triangularización.
1.2.8. Adaptaciones para �ltros no lineales.
Aun cuando el �ltro de Kalman se desarrolló para problemas lineales, habitualmente
se aplica a problemas no lineales. Para un número de ellos trabaja bastante bien pero hay
límites en su utilización.
1.2.8.1 Filtro de Kalman extendido para problemas cuasi-lineales.
Su primer aplicación se realizó en la primer aplicación del �ltro de Kalman en el
proyecto Apollo, tanto en esta aplicación como en cualquier otra su éxito depende de
que el problema sea cuasi-lineal en el sentido de que los errores no modelados debido
a la aproximación lineal son insigni�cantes al compararlos con los errores modelados
debidos a la incertidumbre en la dinámica y el ruido de los sensores. En este tipo de
�ltro la aproximación lineal únicamente se utiliza para resolver la ecuación de Riccati, un
resultado parcial es la ganancia de Kalman.
9
El modelo completo no lineal se utiliza en la propagación de la estimación y en la
predicción computacional de las salidas de los sensores.
El enfoque utiliza derivadas parciales como aproximaciones lineales del problema no
lineal.
1.2.8.2 Aproximaciones de orden superior
Estos enfoques fueron desarrollados por Stratonovich, Kushner, Bucy, Bass, Wiberg y
Campbell y utilizan expansiones en términos de hasta tercer orden de las ecuaciones del
�ltro.
1.2.8.3 Métodos de muestreo basados en Estimación no lineal
La metodología del �ltro de Kalman de problemas no cuasi lineales se realiza mediante
el uso de la propagación no lineal de la solución de la ecuación de Riccati por muestreo
representativo del estado y de la medición de variables. A esta metodología se le conoce
como basada en muestreo o �ltro de partícula.
La carga computacional de esta metodología puede reducirse si se utilizan reglas de
muestreo en lugar de muestreo aleatorio:
1. Método secuencial Monte Carlo. El muestreo se selecciona de acuerdo su importancia
relativa para representar características signi�cativas en la distribución.
2. Filtro sigma-point. El muestreo está relacionado a la media y desviaciones estándar
de las distribuciones.
3. Método Unscented Transform. Muestrea de acuerdo a la media de la distribución
y a la eigenestructura de la matriz de covarianza. En general para distribuciones
n-dimensionales requiere de 2n+1 muestras. Su implementación en el �ltro se deno-
mina unscented Kalman �ltering.
En estos métodos se eligen muestras de los valores del vector de estados para representar
la media y la estructura de la covarianza. Estos muestreos se propagan a futuro para
simular las no linealidades conocidas del sistema y la covarianza resultante en el siguiente
muestreo se in�ere a partir de la distribución resultante tras las transformaciones no
lineales de los muestreos individuales. La estructura de la covarianza resultante se utiliza
para calcular la ganancia de Kalman para usar las medidas de las salidas de los sensores.
Estos métodos son e�cientes y efectivos para algunas aplicaciones no lineales como
identi�cación de parámetros de un modelo dinámicos.
1.2.9. Estimación verdaderamente no lineal.
Estos métodos describen la propagación en el tiempo de la distribución de probabilidad
del estado de la dinámica de un sistema no lineal mediante una ecuación parcial no lineal
10
denominada ecuación de Fokker-Plank. Otros enfoques utilizan la ecuación condicionada
de Fokker-Plank y el cálculo estocástico de Stratonovich.
Los modelos resultantes no tienen la característica de la representación �nita del �ltro
de Kalman. Su carga computacional excede considerablemente a la del �ltro de Kalman.
1.2.10. El problema de detección para la vigilancia
Los problemas de vigilancia incluyen detección, identi�cación y rastreo de objetos
en cierta región del espacio. El �ltro de Kalman ayuda a resolver el problema rastreo e
identi�cación, sin embargo es necesario resolver primeramente el problema de detección
ya que el �ltro de Kalman necesita de un estado inicial y este último a su vez se obtiene
a partir de la detección.
Los estados iniciales se encuentran distribuidos de acuerdo a algunos puntos de pro-
ceso, los cuales son procesos aleatorios que modelan eventos u objetos que se encuentran
distribuidos en el tiempo y/o espacio.
La solución para el problema de detección y rastreo, combinados, de objetos dinámi-
cos cuyo estado inicial está representado por procesos de punto se encuentra dada por
una ecuación diferencial, propuesta por John M. Richardson que parte de la ecuación
condicionada de Fokker-Plank, que aproxima la evolución de la densidad de los objetos y
que puede ser resuelta de forma numérica.
1.3. De la notación utilizada en este libro.
11
1.4. Preguntas y respuestas
1. De�ne que es el Filtro de Kalman
Teóricamente, es un estimador para lo que se conoce como problema cuadrático lineal
que consiste en la estimación instantánea de un estado de un sistema dinámico lineal
perturbado por ruido blanco. Utiliza mediciones linealmente relacionadas con el estado
pero corrompidas por ruido blanco. Es un estimador estadísticamente óptimo con respecto
a cualquier otra función cuadrática estimadora del error.
2. Enuncia para que se utiliza el �ltro de Kalman en el control
Para estimar de forma óptima los estados de un sistema dinámico.
3. Menciona brevemente que es el �ltro de Wiener-Kolmogorov y la aplicación para
la cual fue desarrollado.
Es un predictor lineal óptimo y fue desarrollado para predecir el curso futuro de
aeroplanos y dirigir el fuego antiaéreo hacia éstos utilizando información ruidosa de radar.
4. Describe cual fue la aportación que Kalman hizo con respecto al �ltro de Wiener-
Kolmogorov y a la teoría de control.
Se denomina �ltro de Kalman y consistió en aplicar la noción de variables de estado
al problema del �ltro de Wiener-Kolmogorov.
5. Menciona al menos 2 ventajas relativas entre el �ltro de Kalman y el �ltro de
Wiener-Kolmogorov.
El �ltro de Kalman no requiere de dinámicas determinísticas o de que el proceso alea-
torio tenga propiedades estacionarias. Se puede aplicar a procesos estocásticos no estacio-
12
narios El �ltro de Kalman se puede implementar como un algoritmo en una computadora
y aunque puede llegar a ser más lento que su implementación analógica tiene mucha más
precisión La implementación con electrónica analógica del �ltro de Wiener-Kolmogorov
opera a un mejor rendimiento que el �ltro digital de Kalman. El �ltro de Kalman necesita
de menos preparación matemática para ser utilizado que el �ltro de Wiener-Kolmogorov.
El �ltro de Kalman provee de información estadística para detectar y rechazar medidas
anómalas
2. Sistemas dinámicos Lineales
2.1. Modelo dinámico
El diagrama representa la simpli�cación de un problema de estimación, tanto en tiem-
po continuo como en tiempo discreto. El diagrama muestra los tres modelos dinámicos
del �ltro de Kalman.
El �System dynamics� puede contener variables de estado para representar pro-
cesos aleatorios correlacionados con el tiempo: Perturbaciones dinámicas aleatorias
con respecto al tiempo (p.e. vientos y corrientes), sensor de ruido, efectos del am-
biente, variables que varíen lentamente del propio modelo dinámico.
El �State dynamics� en el �ltro de kalman debe tener un seguimiento bastante �el,
excepto que no conoce los valores de las entradas. El modelo de (�ltro de kalman) FK
puede incluir variables que estimen parámetros (mostrados en la �gura). Condición
inicial del sistema del vector de estados x(t_0) ��xed-point smoother�. La matriz
de parámetros F (o el equivalente en tiempo discreto Φ) y Q del verdadero modelo
dinámico del sistema (estimador no lineal). Los parámetros de la matriz H y R
son del modelo del sensor (no lineal). Perturbaciones aleatorias w y/o ruido de los
sensores v. O varianzas de perturbaciones aleatorias Q y/o ruido de los sensores R
(�ltro no lineal).
El �Covariance dynamics� es un modelo dinámico como segundo momento de los
errores de estimación (matriz de covarianza P). Esta es una matriz de la ecuación de
Riccati cuando los otros modelos son lineales o cuasilinales. El modelo actualizado
de covarianza incluye la dinámica del estado, y la aplicación genera la matriz de ga-
nancia k de kalman como resultado parcial. La entrada del sistema u (en �Control�)
utiliza el estado estimado x como entrada.
13
14
2.1.1. Puntos principales
1. Ecuaciones diferenciales y variables de estado. Las ecuaciones diferenciales
han proporcionado modelos matemáticos concisos y �eles. Estas representaciones
�nitas (como predecir el curso de los planetas) es la base para el enfoque de espa-
cio de estados a la representación de ecuaciones diferenciales y sus soluciones. Las
variables dependientes de las ecuaciones diferenciales se convierten en variables de
estado del sistema dinámico. Representan explícitamente todas las características
importantes del sistema dinámico en cualquier momento.
2. Sistemas dinámicos y ecuaciones diferenciales. En el contexto de �ltro de
kalman un sistema dinámico puede decirse que es un sinónimo de un sistema de
ecuaciones diferenciales ordinarias que describen la evolución en el tiempo del estado
de un sistema físico. El modelo matemático se utiliza para obtener su solución, que
especi�ca la dependencia funcional de las variables de estado en sus valores iniciales
y las entradas del sistema. Esta solución de�ne la dependencia funcional de los
resultados medibles en las entradas y los coe�cientes del modelo.
3. Modelos matemáticos para tiempo continuo y discreto. Los modelos diná-
micos principales de sistemas se resumen en la tabla 1. Los cuales incluyen modelos
lineales y modelos no lineales, también están en tiempo continuo (ec. diferenciales)
y en tiempo discreto.
2.2. Modelos de sistemas dinámicos
2.2.1. Modelado de sistemas dinámicos por medio de ecuaciones diferenciales
Un sistema es una colección de objetos interrelacionados, tratados como un conjunto,
con el �n de modelar su comportamiento. Se llama dinámico si los atributos de interés
están cambiando con el tiempo. Un proceso es la evolución temporal de un sistema.
Un ejemplo de un sistema dinámico es nuestro sistema solar, el cual el movimiento de
estos está relacionado por ecuaciones diferenciales descubiertos por Isaac Newton (1642�
1727). No todos los sistemas dinámicos pueden ser modelados por ecuaciones diferenciales.
Existen otros tipos de modelos de sistemas dinámicos, tales como, las redes de Petri, redes
de inferencia, o tablas de datos experimentales.
2.2.2. Variables de estado y ecuaciones de estado
Las ecuaciones de segundo orden pueden ser transformados a un sistema de dos ecua-
ciones diferenciales de primer orden. De esta manera, se puede reducir la ecuación di-
ferencial de cualquier sistema de orden mayor a un sistema equivalente de ecuaciones
15
diferenciales de primer orden. En la tabla 1, se pueden observar el tipo de ecuaciones
diferenciales de tiempo variable para representar un sistema dinámico con características
dinámicas en tiempo variable. Este es representado en forma de vector.
x(t) = f(t, x(t), u(t)) ...(1)
La funciónf de valores vectoriales, para representar un sistema de n ecuaciones.
x1 = f1(t;x1, x2, x3, . . . , xn, u1, u2, u3, ..., ur, t)
x2 = f2(t;x1, x2, x3, ..., xn, u1, u2, u3, ..., ur, t)
x3 = f3(t;x1, x2, x3, ..., xn, u1, u2, u3, ..., ur, t)
·
·
·
xn = fn(t;x1, x2, x3, ..., xn, u1, u2, u3, ..., ur, t)
Donde:
�dot�- notación de derivada con respecto al tiempo
t � variable independiente
n � variables dependientes
r � entradas conocidas
A esto se le llama ecuación de estados de un sistema dinámico.
2.2.3. Variables de estado y ecuaciones de estado
2.2.3.1 Ecuaciones diferenciales homogéneas y no homogéneas.
Las variables u_j en la ecuación anterior pueden ser independientes de las variables
xj , en este caso el sistema de ecuaciones es considerado no homogénea. En general, las
ecuaciones diferenciales que contienen términos que no dependen de las variables depen-
dientes, y sus derivados, son llamados no homogéneos, y los que no tienen esos términos
no homogéneos (es decir uj) son llamados homogéneos.
2.2.3.2 Variables del estado representan los grados de libertad de los siste-
mas dinámicos.
Las variables x_1,. . . ,x_n son las variables de estado del sistema dinámico, que están
dentro de un vector singular llamado vector de estados del sistema dinámico. En este
sentido, los valores iniciales de cada variable de estado representan un grado de liber-
tad del sistema dinámico. Los n valores x1(t0), x2(t0), x3(t0), . . . , xn(t0) pueden variar
independientemente.
16
2.2.4. Tiempo continuo y tiempo discreto
Aunque a veces es conveniente modelar en el tiempo continuo, en otros es más práctico
considerar valores en tiempo discreto. Por ejemplo, el reloj avanza en pasos de tiempo
discreto. En la ecuación (1) es un ejemplo de un sistema continuo porque está de�nido
con respecto a una variable independiente t que varía continuamente en un intervalo
realt ∈ [t0, tf ]. Para algunos problemas, solo interesa saber el estado de un sistema en
tiempo discreto t ∈ [t1, t2, t3. . . ].
2.2.4.1 Notación abreviada de sistemas en tiempo discreto
Es más fácil acortar la notación xk, a tener que escribir x(tk) que es para representar
la secuencia de calores de la variable de estado.
2.2.5. Sistemas variables en tiempo y sistemas invariantes en el tiempo
El termino planta física y planta se utiliza en lugar de sistema dinámico, principalmen-
te en la industria. La dependencia funcional de la dinámica del estado u y x no depende
del tiempo. En estos sistemas se denominan invariantes en el tiempo o autónomo. Sus
soluciones son generalmente más fáciles de obtener que los sistemas de variables en el
tiempo.
2.3. Sistemas lineales continuos y sus soluciones
2.3.1. Modelos entrada/salida de sistemas dinámicos
El bloque �state dynamics� y �sensor model� de la �gura 1. Esos modelos representan
el sistema dinámico donde utilizan cinco tipos de variables.
Entradas de control uj , que pueden estar bajo nuestro control y son conocidos.
Perturbaciones dinámicas aleatorias wj , se conocen estadísticamente (es decir, con
propiedades estadísticas conocidas).
Variable de estado internas xj ,
En la mayoría se re�ere a variables ocultas en el sentido de que no pueden ser
medidas directamente pero pueden ser inferidas de los que se pueden medir.
Salidas zj , son las cosas que se pueden conocer de los sensores utilizados para medir
algunas de las variables de estado internas xj .
Ruido del sensor vj , también conocidos estadísticamente (es decir, con propiedades
estadísticas conocidas).
17
2.3.2. Matrices de coe�cientes dinámicos y matriz de acoplamiento de en-
trada
El sistema dinámico real es representado por n ecuaciones diferenciales lineales de
primer orden, expresado en forma de vector
x(t) =d
dtx(t)
F (t)x(t) + C(t)u(t)
Donde, los elementos y componentes de las matrices y vectores (F,C,u) pueden estar
en función del tiempo.
La matriz F(t) es llamado matriz de coe�cientes dinámico o matriz de dinámica.
La matriz C(t) es llamada matriz de acoplamiento de entrada.
2.3.3. Forma conveniente de derivadas de orden superior
En general, las ecuaciones diferenciales lineales de orden n
dny(t)
dtn+ f1(t)
dn−1y(t)
dtn−1+ · · ·+ fn−1(t)
dy(t)
dt+ fn(t) = u(t)
Pueden ser reescritas como un sistema de n ecuaciones diferenciales de primer orden.
2.3.3.1 Forma conveniente de vector de estados
Para sistemas dinámicos lineales de orden n mostrados en forma conveniente del vector
de estados.
x(t) = [y(t),dy(t)
dt,d2
dt2y(t), ...,
dn−1
dtn−1y(t)]T
2.3.3.2 Forma conveniente de ecuaciones diferenciales
La ecuación diferencial lineal de orden n puede ser escrito en términos del vector de
estados v(t) como el vector de ecuación diferencial.
18
d
dt
x1(t)
x2(t)
x3(t)
...
xn(t)
=
0 1 0 . . . 0
0 0 1 . . . 0
......
.... . .
...
0 0 0 . . . 1
−fn(t) −fn−1(t) −fn−2(t) . . . −f1(t)
x1(t)
x2(t)
x3(t)
...
xn(t)
+
0
0
...
0
1
u(t)
Matrices de desplazamiento. La submatriz de la parte superior izquierda (n-1)x(n-1)
de F, es la transpuesta llamada matriz de desplazamiento.
D =
0 0 . . . 0 0
1 0 . . . 0 0
0 1 . . . 0 0
......
. . .... 1
0 0 . . . 1 0
El cual juega un importante rol en el desarrollo en paralelo con métodos de procesa-
miento para operaciones de muchas matrices.
2.3.4. Salidas y matrices de sensibilidad medibles
Solo en la entrada y la salida del sistema puede ser medibles, y esto prácticamente se
considera en la variable z_i como variable medible. Para problemas lineales, se relacionan
con las variables de estado y las entradas para un sistema de ecuaciones lineales que se
representan en forma de vector.
z(t) = H(t)x(t) +D(t)u(t)
2.3.5. Ecuaciones en diferencias y matrices de transición del estado (STM,
siglas en inglés)
Ecuaciones en diferencias son las versiones en tiempo discreto de ecuaciones diferencia-
les. Usualmente escritos en términos de forward di�erences x(tt+1)− x(tk) de la variable
de estado (la variable dependiente), expresado como una función Ψ de todas las variables
independientes o del valor siguiente x(tk+1) como una función φ de todas las variables
independientes .
φ(tk, x(tk), u(tk)) = x(tk) + ψ(tk, x(tk), u(tk))
Para sistemas dinámicos lineales, la dependencia funcional de x(tt+1) sobre x(tk) y
19
u(tk) puede ser representado en matrices
x(t(t+ 1))− x(tk) = Ψ(tk)x(tk) + C(tk)u(tk)
x¬(k + 1) = Φkxk + Ckuk
Φk = I + Ψ(tk)
Dónde: Las matrices Ψ y Φ remplazan la función ψ y φ respectivamente.
Φ es la matriz de transición del estado
C es la matriz de acoplamiento de entrada
2.3.6. Solución de ecuaciones diferenciales por STMs
Una matriz de transición de estado (STM) es una solución nombrada ecuación de la
matriz homogénea asociada a un sistema dinámico lineal.
Sistema homogéneo. La ecuación x(t) = F (t)x(t) es la parte homogénea de la ecuación
diferencial lineal x(t) = F (t)x(t) +C(t)u(t). Su solución es usada para de�nir la solución
de la ecuación lineal general (no homogénea).
Solución fundamental de ecuaciones homogéneas. Una matriz de n × n de la función
φ(t) se denomina solución fundamental de la ecuación homogénea sobre un intervalot ∈
[0, T ] si φ(t) = F (t)φ(t) y φ(0) = In. Para cualquier posible vector inicial x(0), el vector
x(t) = φ(t)x(0), es la solución de la ecuación homogénea x(t) = Fx con valor inicial x(0).
2.3.6.1 Existencia y solución fundamental no singular
Si los elementos de la matriz F (t) son funciones continuas sobre un intervalo 0 ≤ t ≤ T ,
la solución fundamental de la matriz φ(t) nos garantiza que existe y puede ser no singular
en un intervalo 0 ≤ t ≤ τ para τ > 0.
2.3.6.2 STM's
La solución fundamental de la matriz Φ(t) transforma cualquier estado inicial x(0)
del sistema dinámico dentro del estado correspondiente x(t) en el tiempo t. Si Φ(t) es no
singular se tiene el producto
Φ(τ, t) = Φ(τ)Φ−1(t)
La matriz de transición del estado Φ(τ, t) representa la transición al estado en el
tiempo τ del estado en el tiempo t.
20
2.3.6.3 Propiedades del STMs y la matriz de solución fundamental
El símbolo Φ también es utilizado para las matrices fundamentales de solución y para
los STM, las siguientes son algunas propiedades.
Φ(τ, 0) = Φ(τ)
1. Φ(τ, τ) = Φ(0) = I
2. Φ−1(τ, t) = Φ(t, τ)
3. Φ(τ, σ)Φ(σ, t) = Φ(τ, t)
4. (∂/∂τ)Φ(τ, t) = F (τ)Φ(τ, t)
5. (∂/∂t)Φ(τ, t) = −Φ(τ, t)F (t)
2.3.7. Solución de ecuaciones no homogéneas
La solución de la ecuación de estado no homogénea está dado por
x(t) = Φ(t)Φ−1(t0)x(t0) + Φ(t)
tˆ
t0
Φ−1(τ)C(τ)u(τ)dτ
2.3.7.1 Sistemas dinámicos variables en el tiempo e invariantes en el tiempo
Si F y C (o Φ y Γ ) no dependen de t (o k), para modelos continuos (o discretos)
considerados invariantes en el tiempo. De lo contrario, el modelo es variable en el tiempo.
2.4. Sistema lineal discreto
Si solo interesa el estado del sistema en tiempo discreto, se puede usar
x(tk) = Φ(tk, tk+1) +
tˆ
t0
Φ(tk, σ)C(σ)u(σ)dσ
2.4.1. Simpli�cación de la constate u
Si u es constante en un intervalo [tk−1, tk], la integral anterior se puede simpli�car a
Γ(tk−1) =
tkˆ
t0
Φ(tk, σ)C(σ)dσ
2.4.1.2 Notación abreviada de tiempo discreto
Para sistemas en tiempo discreto, la kindica la secuencia del tiempo tk que caracteriza
el tiempo de interés. Para sistemas en tiempo discreto, se elimina t, usando la notación,
se puede representar la ecuación de estado en tiempo discreto de la siguiente forma
21
xk = Φk−1xk−1 + Γk−1uk−1
zk = Hkxk +Dkuk
2.4.2. Transformar modelos en tiempo continua a modelos en tiempo discreto
El modelo para un sistema dinámico en tiempo continuo puede ser transformado en
un modelo en tiempo discreto, usando la fórmula de la matriz de transición de estado
Φk−1Φ(tk)Φ−1(tk−1) el equivalente en tiempo discreto
Γuk−1 = Φ(tk)
tkˆ
tk−1
Φ−1(τ)C(τ)u(τ)dτ
2.4.3. Modelos de salida de sistemas lineales y observabilidad
Una salida de un sistema dinámico es algo que se puede medir directamente, como
las direcciones de las líneas de visión de los planetas, la temperatura o un termopar. Un
modelo de un sistema dinámico se dice que es observable a partir de un conjunto dado
de salidas si es factible determinar el estado del sistema a partir de las salidas. Si la
dependencia de una salida z en el estado del sistema x es lineal, se puede expresar de la
forma
z = Hx
Donde H es la matriz de sensibilidad medible. Este puede ser una función en tiempo
continuo[H(t)] o tiempo discreto (HK). La Observabilidad puede ser caracterizada por
el rango de una matriz de observabilidad asociado con el modelo del sistema dado. La
matriz de observabilidad está de�nido como
Para modelos en tiempo continuo
tkˆ
tk−1
ΦT (τ)HT (τ)H(τ)Φ(τ)dτ = 0
Para modelos en tiempo discreto
m∑i=0
(i−1∏k=0
ΦTk
)HTi Hi
(i−1∏k=0
ΦTk
)TEl sistema es observable, si y solo sí, la matriz de observabilidad tiene rango completo
(n) para un entero m ≥ 0 o t > t0. (La prueba de observabilidad puede ser simpli�cada
para sistemas en tiempo invariante).
22
2.5. Preguntas y respuestas
1. -Menciona y describe brevemente cuáles son los tres modelos dinámicos del �ltro
de kalman. Está dividido en tres partes importantes:
� El �System dynamics�, que contiene las variables de estado para representar los
procesos aleatorios correlacionados con el tiempo.
� El �State dynamics�, dentro del �ltro de kalman, debe tener el seguimiento �el pero
no posee los valores de entrada, además incluye las variables para estimar los parámetros.
� El �Covariance dynamics�, es un modelo dinámico para los errores de estimación
(matriz de covarianza P).
2. -De�ne brevemente qué es sistema, dinámico y proceso.
� Sistema es una colección de objetos interrelacionados, tratados como un conjunto,
con el �n de modelar su comportamiento.
� Dinámico es si los atributos de interés están cambiando con el tiempo.
� Proceso es la evolución temporal de un sistema.
3.- Como se puede reducir un sistema de ecuaciones de orden mayor
Se pueden reescribir como un sistema de n ecuaciones diferenciales de primer orden.
4.- ¾Cuáles son las cinco variables que posee el bloque �state dynamics�?
Entradas de control (uj). Perturbaciones dinámicas aleatorias wj (se conocen estadís-
ticamente). Variables de estado internasxj (variables ocultas, no medibles directamente).
Salidas zj (cosas que se pueden conocer de los sensores). Ruido del sensor vj (conocidos
estadísticamente).
5. ¾Cómo se determina la observabilidad de un sistema?
Se tienen las siguientes fórmulas para determinar la observabiliad
Para modelos en tiempo continuo
tkˆ
tk−1
ΦT (τ)HT (τ)H(τ)Φ(τ)dτ = 0
Para modelos en tiempo discreto
m∑i=0
(i−1∏k=0
ΦTk
)HTi Hi
(i−1∏k=0
ΦTk
)TEl sistema es observable, si y solo sí, la matriz de observabilidad tiene rango completo
(n) para un entero m ≥ 0 o t > t0.
23
3. Filtrado no lineal
3.1. Objetivo del capítulo
3.1.1. El problema de �ltrado no lineal
El problema de �ltrar o estimar los estados de sistemas no lineales ha sido modelado
por la ecuación condicionada de Fokker-Planck, la cual es un modelo de ecuación dife-
rencial parcial para la evolución en el tiempo de la distribución de probabilidad de una
variable de estado, incluyendo los efectos de las mediciones. No hay soluciones prácticas
para este problema, salvo en el caso particular en el que las dinámica y mediciones son
lineales. Esta solución es conocida como el �ltrado de Kalman. Kalman obtuvo una so-
lución en términos de la media y la covarianza, pero esto depende de la linealidad del
modelo en variables de estado del sistema.
Para utilizar la ganancia de Kalman en los problemas no lineales, el problema se reduce
a encontrar soluciones no lineales para los casos siguientes:
1. Cuando la propagación del estado entre las mediciones es no lineal, ¾cómo esto
transforma la estimación x y su matriz de covarianza asociada P?
2. Cuando la medición z = h(x) es una función no lineal del vector de estados, ¾cuál
es la medición esperadaz y su covarianza asociadaPzz?
3. La correlación cruzada entre la incertidumbre de estimación y la incertidumbre de
la medición predicha es requerida para el cómputo de la ganancia de Kalman como:
K = Pxz/(Pzz +R),
Donde Pxz = PHT y Pzz = HPHT en el caso lineal. ¾Cuál es la correspondiente corre-
lación cruzada Pxzcuando la medición z = h(x) es una función no lineal del vector de
estados?
También debe tomarse en cuenta que cuando la distribución de la probabilidad es
no Gaussiana, los primeros dos momentos (media y covarianza) no caracterizan a la
distribución. De tal manera que los �ltros no lineales no pueden implementarse solo en
términos de la media y la covarianza. Todos los métodos prácticos de �ltrado no lineal
son aproximaciones.
3.1.2. Soluciones prácticas
Se presentan 4 métodos de �ltrado no lineal:
Linealización: el modelo es linealizado usando derivadas parciales.
24
Filtro de Kalman Extendido (EKF): evalúa las derivadas parciales de la función en
el valor del vector de estados estimado y hace uso de las funciones no lineales para
estimar.
Métodos de muestreo: hacen uso de la teoría estadística de muestreo para aproxi-
mar una transformación lineal de la media y la covarianza. Algunos de estos tipos
de métodos requieren un mayor poder de computacional que un �ltro de Kalman
convencional.
Filtro de Kalman sin esencia (UKF): es un método de muestreo que requiere el
mismo poder computacional que un EKF por lo que es más práctico en comparación
con otros métodos de muestreo.
3.1.3. Soluciones imprácticas
Estos métodos transforman la distribución de la probabilidad no sólo en función de la
media y covarianza. No tienen uso práctico y se utilizan para propósitos pedagógicos.
3.2. Filtrado cuasi-lineal
3.2.1. Cuasi-linealidad
El principal requerimiento para usar un modelo cuasi-lineal es que el error resultado de
la aproximación lineal de un modelo no lineal se encuentre dentro de la precisión esperada.
Lo que básicamente queda descrito por las ecuaciones siguientes:
φk(x+ δx) ≈ φk(x) + δx∂
∂xφk(x)|x
hk(x+ δx) ≈ hk(x) + δx∂
∂xhk(x)|x
3.2.1.1 Pruebas de cuasi-linealidad
Métricas cuasi-lineales Lo idea esencial es que las variaciones esperadas de un vector
de estados de su valor estimado, el error cuadrático medio debido a la linealización sea
insigni�cante en comparación con aquellos debido a los modelos de incertidumbre. Para
mediciones no lineales, los modelos de incertidumbre están caracterizados por la covarian-
za del ruido de medición R. Para las dinámicas no lineales, el modelo de incertidumbre
está caracterizado por la covarianza del ruido de las perturbaciones dinámicas Q.
Las condiciones estadísticas para una linealización son las siguientes:
1. Para una función temporal de transición de estado φ(x): para N ≥ 3, para Nσv
perturbaciones de x de x, el error de aproximación lineal es insigni�cante comparado
25
con Q. Tal que para N ≥ 3, para todas las perturbaciones δx de x es tal que
δxTP−1(δx) ≤ N2,
ε = φ(x+ δx)−[φ(x) +
∂φ
∂x|x∂x
]εTQ−1ε� 1
Es decir, para el rango esperado de variación del error de estimación, el error de la
aproximación lineal está dominado por el modelo de incertidumbre de la dinámica.
2. Para la transformación de la medición/sensor h(x): para Nσ ≥ 3σ perturbaciones
dex, el error de aproximación lineal es insigni�cante comparado con R. Tal que para
N ≥ 3, para todas las perturbaciones δx de x es tal que
δxTP−1(δx) ≤ N2,
ε = h(x+ δx)−[h(x) +
∂h
∂x|x∂x
]εThR
−1εh � 1
Si se cumplen las dos condiciones, entonces se veri�ca que se trata de un problema
adecuadamente cuasi-lineal.
3.2.2. Linealización alrededor de una trayectoria nominal
3.2.2.1 Trayectoria nominal
Una trayectoria es una solución particular de un sistema estocástico, es decir, con
una instanciación particular de las variables aleatorias involucradas. La trayectoria es un
vector con valores secuenciales xk|k = 0, 1, 2, 3, ... para un sistema en tiempo discreto y
un vector valuado en la función x(t), 0 ≤ t para un sistema en tiempo continuo.
El término nominal se re�ere a una trayectoria obtenida cuando las variables aleatorias
asumen los valores esperados.
3.2.2.2 Perturbaciones alrededor de una trayectoria nominal
Las perturbaciones en este caso se deben a la presencia de procesos estocásticos de
ruido y de error asociados a los valores iniciales asumidos.
Si se considera δ para denotar las perturbaciones de la trayectoria nominal se tiene,
δxk = xk − xnomk
δzk = zk − h(xnomk , k)
26
Entonces la serie de expansión de Taylor de φ(x, k− 1) con respecto a x en x = xnomk−1
es
xk = φ(xk−1, k − 1)
= φ(xnomk−1 , k − 1) + ∂φ(x,k−1)∂x |x=xnom
k−1δxk−1
+terminos de orden superior
= xnomk + ∂φ(x,k−1)∂x |x=xnom
k−1δxk−1 + terminos de orden superior
Si los términos de orden superior son despreciados, se tiene
δxk ≈ φ[1]k−1δxk−1 + wk−1
Donde los coe�cientes de primer orden de aproximación están dados por:
φ[1]k−1 =
∂φk−1(x)
∂x|x=xnom
k−1
=
∂φ1
∂x1
∂φ1
∂x2
∂φ1
∂x3. . . ∂φ1
∂xn
∂φ2
∂x1
∂φ2
∂x2
∂φ2
∂x3. . . ∂φ2
∂xn
∂φ3
∂x1
∂φ3
∂x2
∂φ3
∂x3. . . ∂φ3
∂xn
......
.... . .
...
∂φn
∂x1
∂φn
∂x2
∂φn
∂x3. . . ∂φn
∂xn
3.2.2.3 Linealización de h alrededor de una trayectoria nominal
Si h es su�cientemente diferenciable, entonces la medición puede representarse con
una serie de Taylor al igual que el caso anterior. Luego siguiendo el mismo procedimiento
se llega que:
δzk ≈ H [1]k−1δxk
Donde:
H[1]k−1 =
∂h1
∂x1
∂h1
∂x2
∂h1
∂x3. . . ∂h1
∂xn
∂h2
∂x1
∂h2
∂x2
∂h2
∂x3. . . ∂h2
∂xn
∂h3
∂x1
∂h3
∂x2
∂h3
∂x3. . . ∂h3
∂xn
......
.... . .
...
∂hl
∂x1
∂hl
∂x2
∂hl
∂x3. . . ∂hl
∂xn
3.2.2.4 Resumen de ecuaciones de perturbación para el caso discreto.
δxk ≈ φ[1]k−1δxk−1 + wk−1
27
δzk ≈ H [1]k−1δxk + vk
3.2.2.5 Caso continuo
En el caso continuo las correspondientes ecuaciones diferenciales no lineales de la
planta son:
x(t) = f(x(t), t) +G(t)w(t)
z(t) = h(x(t), t) + v(t)
Al aplicar un procedimiento similar que en caso discreto usando una serie de Taylor,
se obtienen las siguientes ecuaciones lineales para un modelo continuo.
δx(t) = F [1]δx(t) +G(t)w(t),
δz(t) = H [1]δx(t) + v(t).
3.2.3. Filtro de Kalman Extendido
El problema con la linealización alrededor de una trayectoria nominal es que la desvia-
ción de la trayectoria actual respecto de la nominal tiende a incrementarse con el tiempo.
Esto hace que los términos superiores de la serie de Taylor cobren importancia y ya no
pueden despreciarse.
Una posible solución para el problema expuesto que reemplazar la trayectoria nominal
con la trayectoria estimada, de tal manera que la serie de Taylor es evaluada alrededor
de la trayectoria estimada.
3.2.3.1 Evaluación de las matrices en tiempo discreto
La única modi�cación con respecto a las ecuaciones obtenidas en el apartado 7.2.2.4
es que las derivadas parciales se evalúan en xk−1 y en x. De tal manera que se tiene:
φ[1](x, k) =∂φ(x, k)
∂x|x=xk(−)
H [1](x, k) =∂h(x, k)
∂x|x=xk(−)
3.2.3.2 Evaluación de las matrices en tiempo continuo
Con respecto a las ecuaciones obtenidas en el apartado 7.2.2.5 las derivadas parciales
se evalúan en otro punto.
28
F [1](t) =∂f(x(t), t)
∂x(t)|x=xk(t)
H [1](t) =∂h(x(t), t)
∂x(t)|x=xk(t)
3.2.3.3 Resumen de las ecuaciones de implementación
Para sistema en tiempo discreto linealizado alrededor del estado estimado
δxk = Φ[1]k−1δxk−1 + wk−1
δzk ≈ H[1]k δxk + vk
Para sistemas en tiempo continuo linealizados alrededor de un estado estimado
δx(t) = F [1]δx(t) +G(t)w(t),
δz(t) = H [1]δx(t) + v(t).
3.2.4. Filtros linealizado y extendido discretos
La implementación de estos dos enfoques de linealización es diferente. En general el
enfoque del �ltro linealizado es más e�ciente en aplicaciones de tiempo real, pero es menos
robusto a los errores de aproximación lineal en comparación con el enfoque de �ltrado
extendido. El enfoque linealizado es más e�ciente al implementarse ya que la linealización
es precomputada. Lo cual es no posible para el caso extendido porque requiere los estados
estimados.
3.2.4.1 Filtro de Kalman linealizado
En este caso se linealiza la planta solo una vez con respecto a una trayectoria nominal.
En la �gura de abajo se muestra el esquema de un �lro de Kalman con este enfoque.
En la Figura a continuación mostrada se listan todas las ecuaciones de este enfoque.
29
3.2.4.2 Filtro de Kalman Extendido Discreto
Este �ltro fue propuesto por Stanley F. Schimdt. La Figura inferior presenta todas las
ecuaciones para implementar este �ltro.
30
3.2.5. Filtros linealizado y extendido continuos
La principal diferencia entre estos dos enfoques es que en el linealizado las derivadas
parciales se evalúan en el estado nominal, en cambio el enfoque extendido usa los estados
estimados. La Figura presenta las ecuaciones de estos dos enfoques con la diferencia ya
explicada.
31
3.3. Métodos de muestreo para �ltrado no lineal.
A diferencia de la quasilinealización los métodos de muestreo permiten reconocer la
naturaleza no lineal del modelo y sobre eso aproximar la solución.
3.3.1. Antecedente Histórico
El estudio formal de los métpdps de muestreo en la estadística comenzó con el trabajo
de Sir Francis Galton, Desde entonces los estadistas han afrontado problemas, lo que ha
permitido el desarrollo de distintas técnicas para la obtención de las muestras. Algunas de
ellas, en la última decada, han sido aplicadas exitosamente al �ltro de Kalman no lineal.
El análisis de Monte Carlo, propuesto por Stanislaw Ulam, dice que en lugar de calcular
todas las combinaciones posibles de un sistema, se toman muestras aleatorias del mismo.
En el tiempo en el que se propuso esto, las computadoras electrónicas estaban siendo
desarrolladas y empleadas en el centro de investigación donde trabajaba Ulam, lo cual
permitió su implementación.
En el muestreo por importancia lo que se hace es que en lugar de tomar las mues-
tras aleatoriamente, se pesa cada muestra dependiendo de su importancia. Dicho peso es
generalmente el índice de densidad de probabilidad local a densidad de muestreo, pero
también puede contener lo que son las medias y covarianzas.
Los puntos sigma son un conjunto estructurado de puntos de muestreo seleccionados
por un procedimiento determinístico basado en una distribución de entrada conocida.
32
Este proceso está diseñado para proveer una aproximación razonable para la distribución
de probabilidad de las salidas. Para su aplicación al �ltro de alman, los únicos valores
estadísticos conocidos de estas distribuciones son sus medias y sus matrices de covarianza
de incertidumbre de estimación asociadas. Un �ltro de Kalman de punto sigma, emplea
puntos sigma para el cálculo de las transformaciones de la media y sus matrices de cova-
rianza.
Los métodos de diferencia central son transformaciones de puntos sigma empleando
derivados numéricos de primer y segundo orden de las muestras de perturbación para
seleccionar y pesar los puntos sigma basado en un modelo de óptimización de segundo
orden.
Filtro de Kalman sin escencia. (UKF Unscented Kalman Filter)
Este método se basa en la aplicación de la transformada sin escencia (UT Unscented
Transform) al �ltro de Kalman, dicha transformada muestrea puntos sigma de manera
e�ciente. Lo que hace es que selecciona y pesa las muestras basandose en el estimado x y
factores Cholesky de la matriz de covarianza P, ya sean los valores a posterior o a priori.
Los pesos de los puntos sigma empleados en la UT son diseñados para dar estimados
imparciales de la media y covarianza de salida, lo que deja algunos grados de libertad
para optimizar otros aspectos de la transformación. La gran ventaja de la UT para �ltro
de kalman es su e�ciencia computacional.
Los �ltros de particula emplean la simulación dinpamica de las muestras como parti-
culas arrastradas en el tiempo a traves de dinamicas no lineales, para despues reconstruir
la media propagada y la matriz de covarianza de las muestras propagadas. Ya que este
método cuenta con muestras mas grandes, tiene el potencial de obtener mejores estimados
de las medias y covarianzas que el UKF.
Los métodos de muestreo de raíz cuadrada son métodos simples para progara los
facores de Cholesky de las matrices de covarianza.
3.3.2. Efectos de orden superior de la no linealidad
Se re�ere a que las desviaciones de las funciones h(·) y f(·) o φ(·) de la linealidad son
tales que la aproximación no es la adecuada.
El origen de la no linealidad puede ser cualquiera de las siguientes opciones
1. El modelo dinamico puede ser inherentemente no lineal. Esta no linealidad puede
ser aproximado mediante algún modelo matemático equivalente que proporcione
una dinamica un poco más lineal
2. El modelo de medición asume una forma funcional no lineal, esto se debe a que
muchos sensores presentan un comportamiento de entrada/salida no lineal.
33
3. La lista de variables de estado incluye parámetros del modelo, tales como la matriz
de transición de estado, la matriz de coe�ciente dinámico, la matriz de sensibilidad
de medición, etc.
Los efectos de la no linealidad puede alterar el signi�cado del valor esperado.
3.3.3. La UKF
La UKF se basa en una implementación de los puntos sigma llamada transformada sin
escencia (UT) para propagar medias y matrices de covarianza. La UT es una familia de
transformadas, donde cada una de ellas emplea una implementación de peso y muestreo
diferente. Esto permite cierta libertad en la aplicación a la UT., dependiendo del grado
de no linealidad y del nivel de aceptación de errores de aproximación.
Las entradas de la UT son:
1. EL estimado(x) también llamado media de la distribución de entrada.
2. Un factor de Cholesky Cxx de su covarianza de incertidumbre asociada Pxx.
3. Una fución de transformación de espacio de esados
y = g(x)
que puede ser lineal o no lineal.
El vector y es empleado aquí ya que puede tener diferentes ejempli�caciones en distintas
partes del �ltro de Kalman.
En las aplicaciones del �ltro de kalman g puede ser ya sea una función de transición
de estado φ o la función de medición h, y y será entonces el vector de estados o un vector
de medición.
Las salidas de la UT son y, la media aproximada de y y Pyy, la covarianza aproximada
de y. La solución incluye los efectos de la no linealidad, si existe. Es exacta cuando g es
lineal y aproximada cuando g es no lineal.
La UT elige muestras, Xi de x, dependiendo solo de x y Cxx, y sus pesos asociados
Wi tales que
x =∑
WiXi
Pxx =∑
Wi(Xi − x)(Xi − x)T
Cada muestra Xi es transformada a traves de la funcion g dada como
34
ξidef= g(Xi)
y la media transformada y y la covarianza Pyy se aproximan como
y ≈∑
Wiξi
Pyy ≈∑
Wi(ξi − y)(ξi − y)T
La UT simplex es aquella UT que tiene el tamaño de muestra mas pequeño, ya que
emplea vertices de la escala n-simplex en su estrategia de muestreo. Esta diseñada para
minimizar la falta de simetría en la solución, lo que permite a los parámetros libres ser
sintonizados para mejorar el rendimiento para aplicaciones especí�cas.
La UT simétrica es llamada así poruqe su muestreo es simetrico alrededos de la
media x. Si para δx, Xi = x + δx es una muestra, entonces Xi+1 = x − δx también es
una muestra.
La transformada general emplea las siguientes 2n+1 muestrasXi y sus pesos asociados
Wi:
X0 = x W0 = 1/(n+ 1)
Xi = x+√n+ 1ci Wi = 1/[2(n+ 1)] 1 ≤ i ≤ n
Xn+i = x−√n+ 1ci Wn+i = 1/[2(n+ 1)] 1 ≤ i ≤ n
El resto de la UT simétrica tiene las mismas ecuaciones de implementacion que la UT
simplex, pero con diferents numeros de puntos sigma. Las muestras de punto sigma Xi se
transforman primero como
ξi = g(Xi), 1 ≤ i ≤ 2n
y la media y covarianza de las muestras transformadas g(x) son estimadas de las
muestras ya pesadas transformadas.
y ≈2n∑Wiξi
Pyy ≈2n∑Wi(ξi − y)(ξi − y)T
La UT escalada es una modi�cación de la UT simétrica de tal manera que permita
algunos ajustes al muestreo y peso para mejorar la robustés a no linealidades de orden
superior al segundo. Emplea tres parametros de escala ajustables (α, β y κ) para permitir
35
el ajuste de la transformada para ciertas aplicaciones. Los parámetros α y κ pueden ser
combinados en un sólo parámetro
λ = α2κ+ (1− α2)n
para simpli�car el cáculo de las muestras y los pesos.
X0 = x W[y]0 = 1/(n+ λ)
W[Pyy]0 = 1/(n+ λ) + 1− α2 + β
Xi = x+√n+ λci Wi = 1/[2(n+ λ)] 1 ≤ i ≤ n
Xn+i = x−√n+ λci Wn+i = 1/[2(n+ λ|)] 1 ≤ i ≤ n
estas muestras Xi son transformadas a través de la función g como
ξi = g(Xi), 1 ≤ i ≤ 2n
para obtener las muestras transformadas ξi.
Dos diferentes valores de peso W[y]0 y W
[Pyy]0 son empleados en el cálculo de la media
transformada y la covarianza.
y = W[y]0 ξ0 +
2n∑Wiξi
Pyy = W[Pyy]0 (ξ0 − y)(ξ0 − y)T +
2n∑Wi(ξi − y)(ξi − y)T
Escalando parámetros El parámetro de escala α es usado para disminuir la huella de
las muestras en la media y el ajuste de los pesos respectivamente.
3.3.4. La ganancia de kalman sin escencia (UKG Unscented Kalman Gain)
La ganancia de Kalman estándar para modelos lineales es
Kkdef= Pk,(−)H
Tk /[HkPk,(−)H
Tk +Rk]
Cuando el modelo es no lineal, los factores equivalentes Pk,(−) y Pzz ≡ HkPk,(−)HTk
pueden ser aproximados usando la UT. El único factor faltante es el término covarianza
cruz, el cual puede ser aproximando de las muestras y pesos de la UT como
Pk,(−)HTk =
∑i
Wi(Xi − xk(−))(ξi − zk)T
Estos resultados parciales de la UT pueden entonces ser empleados para aproximar la
ganancia de kalman como la fracción de la matriz
36
Kk =
[∑i
Wi(Xi − xk(−))(ξi − zk)T
]/
[Rk +
∑i
Wi(ξi − zk)(ξi − zk)T
]
37
3.3.5. La implementación del Filtro de kalman sin escencia (UKF)
La implementación del UKF usando la UT se resume a continuación con las fórmulas
Actualización temporal
Ck−1,(+) = Un factor de Cholesky de Pk−1,(+)
[xk,(−), Pxx] = UT (xk−1,(+), Ck−1,(+), φ, κ, α, β)
Pk,(−) = Pxx +Qk
Actualización de Medición
Ck.(−) = Un factor de Cholesky de Pk.(−)
[zk, Pzz] = UT (xk,(−), Ck,(−), h, κ, α, β)
Pxz =∑i
Wi(Xi − xk(−))(ξi − zk)T
Kk = Pxz/[Pzz +Rk]
xk,(+) = xk,(−) +Kk(zk − zk)
Pk.(+) = Pk.(−) −KkPTxz
3.4. Cuestionario y respuestas
1. ¾Por qué en cuando el proceso estocástico no es Gaussiano no se puede usar la
ganancia de Kalman?
Porque cuando la distribución de la probabilidad es no Gaussiana, los primeros dos
momentos (media y covarianza) no caracterizan a la distribución de probabilidad. Recor-
demos que Kalman resuelve el problema con base en estos dos parámetros.
2. ¾Por qué se justi�ca o se hace necesario el uso del Filtro de Kalman Extendido?
Porque al llevar a cabo una linealización alrededor de una trayectoria nominal la
desviación de la trayectoria actual respecto de la nominal tiende a incrementarse con el
tiempo. De tal manera que los términos de orden superior despreciados en la serie de
expansión de Taylor para obtener el modelo lineal de la planta cobran importancia y ya
no pueden despreciarse.
3. ¾Cuál es principal diferencia entre el enfoque linealizado y el extendido del �ltro
de Kalman? Menciones ventajas y desventajas de cada uno.
El enfoque linealizado trabaja con un modelo lineal obtenido alrededor de una tra-
yectoria nominal y el enfoque extendido obtiene un modelo lineal de la planta usando
la trayectoria estimada, es decir, va actualizando el modelo lineal cada que se estima un
nuevo estado.
El enfoque del �ltro linealizado es más e�ciente en aplicaciones de tiempo real, pero
es menos robusto a los errores de aproximación lineal en comparación con el enfoque de
�ltrado extendido, debido a que los datos que requiere para su ejecución son calculados
fuera de línea y precargados. Por su parte, el enfoque extendido presenta menos errores de
38
estimación porque actualiza el modelo lineal que usa para estimar los estados, sin embargo
requiere un mayor poder computacional porque para cada nuevo estado estimado se vuelve
a obtener un nuevo modelo lineal de la planta.
4.- ¾Cuales son las causas principales de la no linealidad?
1. El modelo dinamico puede ser inherentemente no lineal. Esta no linealidad puede
ser aproximado mediante algún modelo matemático equivalente que proporcione
una dinamica un poco más lineal
2. El modelo de medición asume una forma funcional no lineal, esto se debe a que
muchos sensores presentan un comportamiento de entrada/salida no lineal.
3. La lista de variables de estado incluye parámetros del modelo, tales como la matriz
de transición de estado, la matriz de coe�ciente dinámico, la matriz de sensibilidad
de medición, etc.
5.- ¾Cual es la ventaja de aplicar la transformada sin escencia al �ltro de Kalman?
Su e�ciencia computacional, esto permite las aproximaciones en tiempo real.
39