estimaci6n de parametros en modelos de volatilidad
Post on 20-Feb-2022
6 Views
Preview:
TRANSCRIPT
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
i
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
JESUS ANTONIO HERNANDEZ RIVEROS JUAN DAVID OSPINA ARANGO
Universidad Nacional de Colombia Sede Medellin
Grupo de investigaci6n en
Sistemas complejos naturales
Proyecto DIME 6549
~~NACIONAL UNIVERSIDAD
DE COLOMBIA V~~$) SEDE MEDELliN
~
~ 1 In I~
I 1 I-shy 2 1
~ 2
~
i shy
2 ~
Estimacl6n de Parametros en Modelos de Volatilidad Estocastlca Usando Algoritmos Evolutlvos
copy Universidad Nacional de Colombia Sede Medellin
Q
i~ 23
copy Jesus Antonio Hernandez Riveros copyJuan David Ospina Arango 24~
25 p -gt
Primera edici6n Medellin abril de 2009 t~ 3 AlgOl
Centro de Publicaciones 31 Universidad Nacional de Colombia Sede Medellin
~ 32 F rt 33 M
ISBN 978-958-728-022-7 34 Al
Prohibida la reproducci6n total 0 parcial de esla obra por cualquier medio sin permiso ~ 34middot10
escrilo de la Universidad Nacional de Colombia Sede Medellfn c 34 ~ 34A
Indice general
ih
~ C)
Introduccion 1
I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5
~ 11 Definicion del modelo ASVI 5~ ~ ~
N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10
~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13
Q 222 Estimaci6n del Modelo Auxiliar 14 lt
~ 23 Vector de Scores 15
24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~
-lt
l~ 3 Algoritmos Evolutivos 19
31 Introducci6n 19~
32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22
34 Algoritmos evolutivos 24
~in permiso -0 341 Operaciones geneticas 28
b 342 La aptitud 30
~ 343 La selecci6n 31A
~lt S z6 S
344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33
35 EI algoritmo EAMN 39
351 Resultados middot42
36 Algunas conclusiones acerca del algoritmo EAMN 47
4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55
42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57
43 Estimaci6n del modelo ASVI utilizando EAMN 60
431 Una comparaci6n 61
44 Conclusiones 61
A Programas en Matlab para la estimaci6n del modelo ASVI 63
A1 C6digo del EAMN 63
A2 C6digo para simular un proceso ASVI 65
A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66
A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67
A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69
A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71
Iodice de tablas
31 Resultados para la funci6n (
32 Resultados para la funci6n i
33 Resultados para la funci6n
34 Resultados para la funci6r i
35 Resultados para la funci6
36 Resultados para la funcic
41 Resultados de Estimacic
42 Resultados de Estimacil
43 Resultados de Estimaci
44 Resultados de Estimac
45 Errores porcentuales e I
46 Error Medio Cuadrati
Jucion 33 1
39
middot42
47 ~
55 Indice de tablas 55
57
60 31 Resultados para la funcion de Rosenbrock 44
61 32 Resultados para la funci6n de Rastrigin 44
61 33 Resultados para la funci6n de Schwefel 45
34 Resultados para la funcion de Griewangk 4663
35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47
j 65 I
M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60
71 44 Resultados de Estimacion EMM con EAMN 60
45 Errores porcentuales en los diferentes metodos de estimacion 61
46 Error Medio Cuadratico para cada metodo de optmizaci6n 61
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
JESUS ANTONIO HERNANDEZ RIVEROS JUAN DAVID OSPINA ARANGO
Universidad Nacional de Colombia Sede Medellin
Grupo de investigaci6n en
Sistemas complejos naturales
Proyecto DIME 6549
~~NACIONAL UNIVERSIDAD
DE COLOMBIA V~~$) SEDE MEDELliN
~
~ 1 In I~
I 1 I-shy 2 1
~ 2
~
i shy
2 ~
Estimacl6n de Parametros en Modelos de Volatilidad Estocastlca Usando Algoritmos Evolutlvos
copy Universidad Nacional de Colombia Sede Medellin
Q
i~ 23
copy Jesus Antonio Hernandez Riveros copyJuan David Ospina Arango 24~
25 p -gt
Primera edici6n Medellin abril de 2009 t~ 3 AlgOl
Centro de Publicaciones 31 Universidad Nacional de Colombia Sede Medellin
~ 32 F rt 33 M
ISBN 978-958-728-022-7 34 Al
Prohibida la reproducci6n total 0 parcial de esla obra por cualquier medio sin permiso ~ 34middot10
escrilo de la Universidad Nacional de Colombia Sede Medellfn c 34 ~ 34A
Indice general
ih
~ C)
Introduccion 1
I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5
~ 11 Definicion del modelo ASVI 5~ ~ ~
N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10
~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13
Q 222 Estimaci6n del Modelo Auxiliar 14 lt
~ 23 Vector de Scores 15
24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~
-lt
l~ 3 Algoritmos Evolutivos 19
31 Introducci6n 19~
32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22
34 Algoritmos evolutivos 24
~in permiso -0 341 Operaciones geneticas 28
b 342 La aptitud 30
~ 343 La selecci6n 31A
~lt S z6 S
344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33
35 EI algoritmo EAMN 39
351 Resultados middot42
36 Algunas conclusiones acerca del algoritmo EAMN 47
4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55
42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57
43 Estimaci6n del modelo ASVI utilizando EAMN 60
431 Una comparaci6n 61
44 Conclusiones 61
A Programas en Matlab para la estimaci6n del modelo ASVI 63
A1 C6digo del EAMN 63
A2 C6digo para simular un proceso ASVI 65
A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66
A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67
A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69
A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71
Iodice de tablas
31 Resultados para la funci6n (
32 Resultados para la funci6n i
33 Resultados para la funci6n
34 Resultados para la funci6r i
35 Resultados para la funci6
36 Resultados para la funcic
41 Resultados de Estimacic
42 Resultados de Estimacil
43 Resultados de Estimaci
44 Resultados de Estimac
45 Errores porcentuales e I
46 Error Medio Cuadrati
Jucion 33 1
39
middot42
47 ~
55 Indice de tablas 55
57
60 31 Resultados para la funcion de Rosenbrock 44
61 32 Resultados para la funci6n de Rastrigin 44
61 33 Resultados para la funci6n de Schwefel 45
34 Resultados para la funcion de Griewangk 4663
35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47
j 65 I
M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60
71 44 Resultados de Estimacion EMM con EAMN 60
45 Errores porcentuales en los diferentes metodos de estimacion 61
46 Error Medio Cuadratico para cada metodo de optmizaci6n 61
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
~
~ 1 In I~
I 1 I-shy 2 1
~ 2
~
i shy
2 ~
Estimacl6n de Parametros en Modelos de Volatilidad Estocastlca Usando Algoritmos Evolutlvos
copy Universidad Nacional de Colombia Sede Medellin
Q
i~ 23
copy Jesus Antonio Hernandez Riveros copyJuan David Ospina Arango 24~
25 p -gt
Primera edici6n Medellin abril de 2009 t~ 3 AlgOl
Centro de Publicaciones 31 Universidad Nacional de Colombia Sede Medellin
~ 32 F rt 33 M
ISBN 978-958-728-022-7 34 Al
Prohibida la reproducci6n total 0 parcial de esla obra por cualquier medio sin permiso ~ 34middot10
escrilo de la Universidad Nacional de Colombia Sede Medellfn c 34 ~ 34A
Indice general
ih
~ C)
Introduccion 1
I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5
~ 11 Definicion del modelo ASVI 5~ ~ ~
N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10
~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13
Q 222 Estimaci6n del Modelo Auxiliar 14 lt
~ 23 Vector de Scores 15
24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~
-lt
l~ 3 Algoritmos Evolutivos 19
31 Introducci6n 19~
32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22
34 Algoritmos evolutivos 24
~in permiso -0 341 Operaciones geneticas 28
b 342 La aptitud 30
~ 343 La selecci6n 31A
~lt S z6 S
344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33
35 EI algoritmo EAMN 39
351 Resultados middot42
36 Algunas conclusiones acerca del algoritmo EAMN 47
4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55
42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57
43 Estimaci6n del modelo ASVI utilizando EAMN 60
431 Una comparaci6n 61
44 Conclusiones 61
A Programas en Matlab para la estimaci6n del modelo ASVI 63
A1 C6digo del EAMN 63
A2 C6digo para simular un proceso ASVI 65
A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66
A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67
A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69
A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71
Iodice de tablas
31 Resultados para la funci6n (
32 Resultados para la funci6n i
33 Resultados para la funci6n
34 Resultados para la funci6r i
35 Resultados para la funci6
36 Resultados para la funcic
41 Resultados de Estimacic
42 Resultados de Estimacil
43 Resultados de Estimaci
44 Resultados de Estimac
45 Errores porcentuales e I
46 Error Medio Cuadrati
Jucion 33 1
39
middot42
47 ~
55 Indice de tablas 55
57
60 31 Resultados para la funcion de Rosenbrock 44
61 32 Resultados para la funci6n de Rastrigin 44
61 33 Resultados para la funci6n de Schwefel 45
34 Resultados para la funcion de Griewangk 4663
35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47
j 65 I
M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60
71 44 Resultados de Estimacion EMM con EAMN 60
45 Errores porcentuales en los diferentes metodos de estimacion 61
46 Error Medio Cuadratico para cada metodo de optmizaci6n 61
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Indice general
ih
~ C)
Introduccion 1
I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5
~ 11 Definicion del modelo ASVI 5~ ~ ~
N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10
~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13
Q 222 Estimaci6n del Modelo Auxiliar 14 lt
~ 23 Vector de Scores 15
24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~
-lt
l~ 3 Algoritmos Evolutivos 19
31 Introducci6n 19~
32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22
34 Algoritmos evolutivos 24
~in permiso -0 341 Operaciones geneticas 28
b 342 La aptitud 30
~ 343 La selecci6n 31A
~lt S z6 S
344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33
35 EI algoritmo EAMN 39
351 Resultados middot42
36 Algunas conclusiones acerca del algoritmo EAMN 47
4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55
42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57
43 Estimaci6n del modelo ASVI utilizando EAMN 60
431 Una comparaci6n 61
44 Conclusiones 61
A Programas en Matlab para la estimaci6n del modelo ASVI 63
A1 C6digo del EAMN 63
A2 C6digo para simular un proceso ASVI 65
A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66
A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67
A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69
A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71
Iodice de tablas
31 Resultados para la funci6n (
32 Resultados para la funci6n i
33 Resultados para la funci6n
34 Resultados para la funci6r i
35 Resultados para la funci6
36 Resultados para la funcic
41 Resultados de Estimacic
42 Resultados de Estimacil
43 Resultados de Estimaci
44 Resultados de Estimac
45 Errores porcentuales e I
46 Error Medio Cuadrati
Jucion 33 1
39
middot42
47 ~
55 Indice de tablas 55
57
60 31 Resultados para la funcion de Rosenbrock 44
61 32 Resultados para la funci6n de Rastrigin 44
61 33 Resultados para la funci6n de Schwefel 45
34 Resultados para la funcion de Griewangk 4663
35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47
j 65 I
M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60
71 44 Resultados de Estimacion EMM con EAMN 60
45 Errores porcentuales en los diferentes metodos de estimacion 61
46 Error Medio Cuadratico para cada metodo de optmizaci6n 61
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33
35 EI algoritmo EAMN 39
351 Resultados middot42
36 Algunas conclusiones acerca del algoritmo EAMN 47
4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55
42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57
43 Estimaci6n del modelo ASVI utilizando EAMN 60
431 Una comparaci6n 61
44 Conclusiones 61
A Programas en Matlab para la estimaci6n del modelo ASVI 63
A1 C6digo del EAMN 63
A2 C6digo para simular un proceso ASVI 65
A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66
A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67
A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69
A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71
Iodice de tablas
31 Resultados para la funci6n (
32 Resultados para la funci6n i
33 Resultados para la funci6n
34 Resultados para la funci6r i
35 Resultados para la funci6
36 Resultados para la funcic
41 Resultados de Estimacic
42 Resultados de Estimacil
43 Resultados de Estimaci
44 Resultados de Estimac
45 Errores porcentuales e I
46 Error Medio Cuadrati
Jucion 33 1
39
middot42
47 ~
55 Indice de tablas 55
57
60 31 Resultados para la funcion de Rosenbrock 44
61 32 Resultados para la funci6n de Rastrigin 44
61 33 Resultados para la funci6n de Schwefel 45
34 Resultados para la funcion de Griewangk 4663
35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47
j 65 I
M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60
71 44 Resultados de Estimacion EMM con EAMN 60
45 Errores porcentuales en los diferentes metodos de estimacion 61
46 Error Medio Cuadratico para cada metodo de optmizaci6n 61
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Jucion 33 1
39
middot42
47 ~
55 Indice de tablas 55
57
60 31 Resultados para la funcion de Rosenbrock 44
61 32 Resultados para la funci6n de Rastrigin 44
61 33 Resultados para la funci6n de Schwefel 45
34 Resultados para la funcion de Griewangk 4663
35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47
j 65 I
M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60
71 44 Resultados de Estimacion EMM con EAMN 60
45 Errores porcentuales en los diferentes metodos de estimacion 61
46 Error Medio Cuadratico para cada metodo de optmizaci6n 61
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Indice de figuras
11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo
ASVI con w = -128 09 a -024 y = 018
31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49
32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50
33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51
34 Funcion de Griewangk 52
35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53
36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas
de camello 54
41 Desempefio del Algoritmo Genetico Hfbrido con SQP
42 Graflca de In 0 en la ecuacion (42) 57
43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha
Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el
vertical a a 59
v
6
56
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
middot 1
Introduccion
Hay situaciones en las que al analizar su comportamiento se observa que en algunas
propiedades del sistema han existido period os en los que la dispersion es mayor y otros
periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se
presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento
de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse
que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema
Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y
cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo
son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica
En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de
la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de
heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos
(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de
la volatilidad se caracteriza porque la varianza condicional depende de las observaciones
pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de
sus propios valores pas ados
Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema
de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido
amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de
verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un
proceso estocastico no observable Esta no observabilidad del proceso estocastico generador
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los
modelos de volatilidad estocastica
Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy
to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que
se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy
tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las
series temporales de rendimientos de activos financieros Al analizar algunos rendimientos
financieros se observa que en su comportamiento han existido periodos en los que la volashy
tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es
importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy
ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad
estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy
dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre
otros
En este proyecto de investigacion se considera el problema de estimar un modeo de voshy
latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo
que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema
de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican
diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos
asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco
del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de
Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos
Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad
estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy
to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de
Estimacion de Ia Distribucion
Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy
mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy
2
nes Los EDA aparecieron e--~
investigacion de gran inter~
codifican posibles solucion~
evolucionan en generacion~
decirse que los EDA tienen
Evolutivos Sin embargo a(
evolutiva en los EDA se hi
guientes poblaciones En Ii I
les de los Algoritmos Genl
la estimacion de Ia distri
previamente seeccionada
Los algoritmos evoluti
dificiles de optimizacion~
dos problemas deceptivo
Ademas si el investigadc I
parametros de control d~
Por estas razones se ha d
que por Ia estructura estmiddot
se facilita predecir el me
de aplicarlos para la est
modeos de volatilidad
En la seccion I se p
el cual se hacen las dec
(EMM) se expJica en 1
trabajo EAMN (Evolu
exponen en la seccion
comparando varios m
los codigos de compu
en general y en la est
hhrmiddotc~~--~4nt~ hnn Convertido en un topico de
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS
de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico
que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los
~-
de volatilidad estocastiea general EI prop6sishy
s encontrar el mas adecuado de manera que
eI comportamiento de la propiedad del sisshy
de volatilidad estocastica se presenta en las
mcieros AI analizar algunos rendimientos
han exislido periodos en los que la volashy
latilidad es menor En esas situaciones es I
de la volatilidad ya que esta se constitushy
licacion de estos modelos de volatilidad
ambiarios se hace para contar con preshy
go y con valoraci6n de opciones entre
iproblema de estimar un modelo de voshy
ivos para optimizar la funci6n objetivo
iente (EMM) Se plantea el problema
icticas inherentes al EMM Se aplican
~ comparan los resultados obtenidos
I nizacion disefiado dentro del marco
lac ion de Parametros en Modelos de
Probabilfsticos
imetros en modelos de volatilidad
Ilevar a cabo esta tarea Para esshy
I IS conocida como Algoritmos de
por su acr6nimo en ingles (Est ishy
estocastica basada en poblacio-
Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~
nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de
investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que
codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos
evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc
decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos
Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion
evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy
guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy
les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n
la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos
previamente seleccionada para inducir la busqueda
Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas
diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy
dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico
Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los
parametros de control del algoritmo puede ser un problema de optimizacion por si mismo
Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado
que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y
se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar
de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los
modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo
En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con
el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente
(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este
trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se
exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y
comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran
los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN
en general y en la estimacion EMM del modelo ASVI en particular
3
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos
Probabilistic os del cual este documento es uno de sus resultados parciales
Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de
la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el
desarrollo de dicho proyecto de investigaci6n
Jesus A Hernandez R
jahemanunalmededuco
Juan D Ospina A
jdospinaunaimededuco
Grupo de Investigacion en Sistemas Complejos Naturales
Facultad de Ciencias - Facultad de Minas
Universidad Nacional de Colombia - Sede Medellfn
MedeIHn
Octubre de 2008
Seccion 1
El Modelo del
ASVI
En este capitulo se introd
problema de estimaci6n utili) i
YTauchen Este metodo pert
simulaci6n ver Gourieroux y es deterrninar cu6les problen
i computacionalmente muy de
I d11bull DefimelOn ~
EI modele de serie de til
Iidad estocastica con asimel
proceso estocastico Yt t E 2
Inl
donde Zt Et iid N(O 1) I
4
Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos
Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de
Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy
cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i
Probabilfsticos delcual eo rgt- --ps parciales I
n Diego Giraldo Gomez de
s invaluables aportes en el I
Jesus A Hernandez R
hhemanunalmededuco
Juan D Ospina A
lospinaunalmededuco
Seccion 1
El Modelo de Volatilidad Estocastica
ASVI
En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el
problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant
y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en
simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal
es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser
computacionalmente muy demand ante
11 Definicion del modelo ASV1
El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy
lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un
proceso estocastico Yt t E Z sigue un modelo ASV I si satisface
Ol)In(oD
donde Zt Et iid N(O 1) independientes
5
Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos
Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x
[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico
y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo
ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de
la volatilidad de una trayectoria simulada de un proceso ASV I
RnctlmlenNu U fftnoiCOI ASV 1
(b) Rendimientos
II LIl I
shyi
D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I
(a) Precio
Rndlmkfttu d1 rOtICI ASY I
(e) Histograma
D
(d) Asimelna de la volatilidad
Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y
1 =018
La importancia de los modelos de volatilidad estocastica es que se ha demostrado que
describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy
tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados
que los modelos (exponential general autoregressive conditional heteroskedastic) como se
6
Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo
muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los
IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los
segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de
estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld
convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero
para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es
observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es
posible reconstruir la serie al YI t = 12 IV subyacente
Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio
- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en
atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa
autorregresivo posiblemente con saltos
En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy
dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos
son
I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy
102)
2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y
metod os de Monte Carlo
3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM
descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos
10 son 0 (w3a) E[-hh] x (01) x
Cuando a = 0 se de~omina modelo simetrico
- IIlt 1996) se da mas detalles sobre el modelo
ecio rendimientos histograma y asimetrfa de
proceso ASV 1
2000
(b) Rendimientos
de la volatilidad
~w ~ -t ~ 0bull - -0 bull
l es que se ha demostrado que
Ifi al ltos nancleros como ta curshy
alas noticias en los mercados 1hkdastic) rorno
tllm~Rltlt~l c ilt ~
DZ~rif)~ t~~~- _1
Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo
muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los
modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los
segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de
estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud
convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero
para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es
observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es
posible reconstruir la serie (Jr Yt t 12 N subyacente
Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio
- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en
otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)
donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso
autorregresivoposiblemente con saltos
En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy
dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos
son
1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-
102)
2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y
metod os de Monte Carlo
3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM
descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes
sean observables
4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy
gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son
poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del
proceso
7
-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de
estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se
describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)
cap 23 La funci6n objetivo tiene la forma
donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy
diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que
tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy
cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial
altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~
presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye
recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion
analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de
computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es
practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es
un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)
es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()
se torna inestable como se muestra posteriormente
8
------------~-----~~------
rl I 1 I
Ii
I J I 1
Sed
I 11 II ii Ii i
Met
I 1
I i
EIMeJ I
de estimacit i
plota el heet
en el sentida I
momentos pi I mente se em
I tlene mvo UCI
procesos de e
I I
contenga CUY I
GMMproduc metodode m~ metodo de mfu
I
bles cuando est 1
este capitulo sei
tacion de esta ui
Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos
EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de
estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se
describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n
Ir-
l)ll2 specifico es la norma eucli-
natriz definida positiva que
eresa observar que la funshy
1a cierta funcion vectorial Igoritmo no por una exshy
ue el algoritmo incluye e obtener una expresi6n
I dJmentana e lIempo e
lllab Por tanto no es
Adicionalmente es rejemplo f3 E (01)
10 que define QT(0)
Seccion 2
Metodo de los Momentos Eficiente
EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa
de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy
plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse
en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de
momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy
mente se emplea cuando el modele de in teres general mente dado en el espacio de estados
tiene involucra variables no observables Para superar la dificultad que esto conlleva en los
procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que
contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y
GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el
metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del
metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy
blescuando esta no 10 es por alguna razon como la presencia de variables no observables En
este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy
tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl
9
21 Generalidades de la Inetodologia GMM (
La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un
sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta
manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy
cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion
(21)
(21)
y se define 1como
(22)1= E [~ ~(YtO)] I
puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en
diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas
asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros
oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras
EI metodo 9MM propone como estimador del panimetro 0
argmfnf (0) lvlN (0) (23) _ OE9
donde IN se define como en la eeuaci6n (24)
1 N
N I (YtiO) (24) t=l
y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j
rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy
ea de la ecuaci6n (25)
10
JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango
rfI i I
La matriz de I A
dor ON En (HarIil
Np (0 (lVT8-1 II
sentido de que mi I I
la e~uaci6n (26) Ii i I
II
22 Metodi
EI metodo EM~ adaptaci6n del metq
modelo La estrategl I
delo que se desea esl
una densidad gal cod
de parametros 17 que I 1 dElveroSlml ItU sto P
I de la ecuaci6n (27)
i donde r es el est
denomina funci6n se I
EI eoncepto es mas d I
satisfacer aproximadd
datos provenientedel
el modelo de interes
Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos
21 Generalidades de la metodologia GMM
La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy
mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy
ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un
I _sist--~ es de los momentos De esta I
sian k cuyo modelo se espeshy I I rus bullecuooonI
(21)
(22)
Ie
es una martingala en
d matnz e covananzas
vector de prira~etros lClOnes estlmadoras
(23)
(24)
Asf el probleshy
bull J
Irma cuadratishy
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
J (0) = r (0) llIN (0) (25)
La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy
dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una
Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el
sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en
la ecuacion (26)
(26)
22 Metodo de los Momentos Eficiente
EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una
adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el
modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy
delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene
una densidad ga condicionada a la historia de los datos que esta determinada por un vector
de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima
verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden
de la ecuacion (27) expresadas para una serle observada de longitud N
~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]
donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se
den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes
El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe
satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de
datos provenidnte del modele de interes Es decir que un conjunto de datos generados por
el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las
11
Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de ITahalanobis AsC si se escribe
= ~~ I ega (fit (0) iii(0) (28)mT N~ n a
t=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de parametros candidato 0 se puede definir eLestimador EMM como
argmfnm (0) VmN (0) (29)BEe
Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener
simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O
En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena
aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la
maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)
(210)
Los pasos delmetodo EMM pueden listarse como sigue
bull Definir un modelo auxiliar
bull Estimar el modelo auxiliar
bull CaIcular la fund6n score del modelo auxiliar
bull Plantear la funci6n objetivo EMM
bull Minimizar la funcion objetivo EMM
Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves
de ~m EGARCH(ll) conerrores SNP(4)
12
221 Sele
i EI primer P
I
modelo (ll) LI
(11) la variable Ii
datos observados I
presencia de error I
I
EI metodo pror
verosimiIit~d para 1
proceso EGARCH(
In
donde Zt iid ~rv
[-h h] x
[01] x [-I
Iidenticas pero no hay 1
que se diferencian en 1
(11) tiene una densidad
I
donde nt --1 = aat 2 _ 1 Zt
1
yO (w3 a) es e -
EGARCH(ll) (211) f(i I
donde n_l a(aL j
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos
condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se
define en terminos de una distancia de mahalanobis As si se escribe
1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ
donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando
el vector de panimetros candidato () se puede EMM como
(29)
teres debe permitir obtener
is del vector de parametros ()
~ fin de conseguir una buena I
~I metoda GMM alcanza la
h r)) (210)I
Vl ~OXmdOOVmiddot
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
221 Seleccion del modelo auxiliar
El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al
modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en
(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los
datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la
presencia de error aleatorio ft en (11)
EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima
verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un
proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)
(211)
donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv
[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes
identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)
que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI
(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)
(212)1
cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto
y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo
EGARCH(l 1) (211) f(yIO_I T7) esta dada por
(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l
13
Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar (
Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)
debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera
que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del
EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy
cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo
especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy
llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se
basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad
SNP se comentan al final de este capitulo ver (219) y (218)
Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con
vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy
tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo
EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada
por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)
bull f(Y(Jt d)(Jt
In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)
donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con
errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es
(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En
este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i
caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy
metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4
14
h
~ [I
J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1
Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~
Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______
I
DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~
bull bull I I
I I
I I
23 Vector de Scores
Se define el vector de scores del r I
I
gradiente en ]R4+k de derivadas parcial
i
I
oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I
(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1
III I
donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I
o (2) iow In (Jt 1 + VIa o 2 2 I
08 In((Jt) In((Jt_l~
omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy
donde VI = 8 - (OZt-l + IZt-11l
colocando las derivadas parciales iguale
medios calculados con los datos observ
Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos
222 Estimacion del Modelo Auxiliar
-J~~~~~~ ~ ~- -middotr~~middotS-
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt
Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)
debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para
lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy
que la dimension deL)- -
tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional
nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera
antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy
oximacion Esto se logra mediante un tipo
metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad
(218)
1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo
idad condicional de Yt esta dada
bull r
1- pmiddot(d) (214)
un EGARCH(lI) ~on
ctOf de panlmetros es
imilitud (QML) En
istribucion se puede
dia varianza asi~ 0 k 4
Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _
trivial yes unq d~ los intereses en este estudio
23 Vector de Scores
Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector
gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)
8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =
8(1 d) 8(1] d) 8l 8d
(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad
(215)
donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de
ecuaciones recursivas dado por
a (21 + Vi aw In o-t_1)
In(o-_l) + Vi ~ In(o-L)
8 Zt-1 + Viao In(o-_l) _
IZt-11- p(d) + Vi In(o-_l) t = 1 T
donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O
colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores
medios calculados con los datos observados
15
Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo
24 Funcion Objetivo (
Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de
la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)
ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West
la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define
como la forma cuadnltica dada en la ecuadon (216)
(216)
donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n
objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar
1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy
dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que
puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo
de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener
el estimador EMM como el vector aT que minimiza QT
(217)
25 La densidad SNP
A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se
forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de
Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf
Ho(x) =1
lt(x) =X (218)
Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn
16
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite
que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy
la funcion de densidad de
primeros cuarro polinOll
x(x2 3)6 H4X) = Una funcion de densi I
i
i i donde d (dt bull dk) Ei
En este trabajo se tori I
densidad SNP puede vers I
inclusive elevado al cuad I I
hasta los k 4 primeros t(1
Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos
24 Flncion Objetivo
Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de
la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)
ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West
la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define
1L_---sQJl1QJaJormn~IlAr~~-
hT(O)W (216)
WT definida positiva La flmci6n 1
ara cada evaluacion debe realizar
b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I
nalmente se aplica un algorit~o I lgOritmo genetico para obtener
I i
I I (217)
sidad SNP Esta densidad se
ri6n d polinomio d
l (218)
Jesus Antonio Hernandez Riveros y luan David Ospina Arango
De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite
que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es
la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los
primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =
x(x2 - 3)(6 H4(X) = (x4
- 6x2 + 3)(2(6)
Una funcion de densidad unidimensional del tipo SNP(d) se define como
(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)
1 + LJJl dj
donde d (db dk ) E IRk k = 12 es el vector de parfimetros
En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la
densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k
inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente
hasta los k 4 primeros terminos
17
(
Seccion 3
Algoritmos Evolutivos
31 Introducci6n
En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo
de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy
nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan
adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es
de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk
denominada el espaci de busqueda el problema se define formal mente como encontrar el
vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)
donde por I se denota la transpuesta de una matriz
x= argmfllJ (x) (31)xED
Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy
ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben
emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este
trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n
normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy
nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus
19
Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo
caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal
distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy
lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI
EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la
generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en
los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy
delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza
funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a
una distribucion basada en la informacion de los individuos para crear nuevos individuos En
este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy
dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran
cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades
matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy
tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa
para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas
intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad
con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion
determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy
po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma
vectorial
En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen
los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -
estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en
el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio
con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca
del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a
problemas no continuos
20
32 Por que algOl I
f
I
Los metodos de optimiza
de esas variantes son los alg I
dos son los algoritmos genl I
mutuamente competltIvos e I
Con la exploracion se prete
el fin de de obtener una est
es un procesode refinami(
solucion mejor En esta sei
a problemas de estimacio I
de la investigacion preseq Un argumento que PI
I
actual mente una gama d I
ritmos relativamente cor I I
Montfort 1996) para u[I
I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl
de tiempocontinuos J
estocastica para serid
se desarrolla mas la jI I
Goffe et at (Gb
heuristico el tempi i
algoritmos conven1
usando un algoritm I
I Cray programad07
I de encontrar el op
los anali~is de Mal
Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo
----- __~---------- prithm based on the Multivariate Normal
eI optimo globaFde una funci6n de vashy
0 su aJcance es mucho mas general EI
~a el espacio de bUsqueda a traves de la
rmmlsuca de I ddIVI uos Como en os m
algoritmos evolutivos basados en moshyI
ItI algoritmo EAMN propuesto utiliza
nos otros no se ajusta propiamente a
d d EIuos para crear nuevos m IVI uos n
Ina distribucion normal por su propieshy
jr de un punto aprovechando Ia gran
meros y las conocidas propiedades
I d IIte podnan permltlr esarro os ma-I
ha la media de la poblacion se usa
cualla exploiacion debe ser mas
se usa para controlar la intensidad
d 0nencla EI mecamsmo e mutaci
1 Jr potencla mlentras que a Itlem-I
hduo en el sentido de una norma
Itmo propuesto se mtro d ucen
abilfsticos y los algoritmos de
~oritmo EAMN disefiado en
JunClOnamlento satlslactono
algunas conclusiones acerca
y posteriores exte~siones a
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
32 Por que algoritmos evolutivos
Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una
de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy
dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos
mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda
Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con
el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion
es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una
soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica
a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes
de la investigaci6n presente
Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe
actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy
ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y
Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy
les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los
algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy
cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series
de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad
estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)
se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os
Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo
heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres
aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros
usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores
Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad
de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse
los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo
21
Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
de algoritmo heuristico multipoblacional
Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad
de encontrar el optimo global en presencia de varios optimos locales Este es un problema
que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-
jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala
especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy
nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no
identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades
propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy
buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas
en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~
aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy
son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo
presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos
de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el
proceso de optimizaci6n involucrado
En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n
SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta
estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~
do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En
principio este es otro argumento para justificar eI presente trabajo
33 Metodos heuristicos de optimizacion
SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt
pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull
Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion
para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull
cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)
22
rr
donde g(X) es la fun
descenso por gradid
rupido hacia un mi~
yen BFGS (Broyde~
Newton-Gau~s Steel
(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I
I
dos en mfnimos lodI
(plateau) En contra I
cindad de Xn B6(Xn 1 i
un procedimiento al~
posible mejor solucil
Los metodos heJ
y metodos mUltiPob
no se genera un sold I
(1) (kraquo) I ( Xn bullbullbull Xn sobl
ventaja de los metol I
adversas de la funci I
1(plateau) no conveJ
metodos multipobl~ j
asignando valores ri I
regi6n no deseablel I
ministicos y iii est I
convergen al 6ptiJ Idadaslas condicio
heurfsticos pueden J
vergenin al 6ptim~ h eunstlcos en prol i
Jesus Antonio lIemandez Riveros yJuan David Ospina Arango
Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos
d dunstlcoS es su CapaC a i les Este es un problema
lalidad de la funcion ob- I I Itl puede deberse a mala
ARMA(pq) con ordeshy
~ debersetambien a no
lertibles A dificultades
lezclas finitas de distrishy
n variables dicotomas model os de regresion
al Burton y Richardshy
~ab~~idad del modelo nte en muchos casos
lecomendable para el I I
ilizar la distribuci6n
1y factible que esta
lnida para el metoshy
orden hasta k En
bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n
t descent) en elI Ixn+an1g(xn)
Jesu Antonio HernAndez Riveros y Juan David Ospina Arango
donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de
descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas
rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy
yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton
Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH
(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno
define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz
hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy
dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta
(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo
cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin
un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como
posible mejor soluci6n y cuando terrninar el proceso de iteraci6n
Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias
y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales
no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos
(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran
ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas
adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas
(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los
metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables
asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una
region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy
ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo
convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn
dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos
heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy
vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos
heuristicos en promedio se acercaran a ese optimo global
23
Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos
Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)
y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy
goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y
colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall
2003) para una descripcion y referencias adicionales bull
Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo
BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH
ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con
restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En
el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los
val ores iniciales usando algoritmos evolutivos
34 Algoritmos evolutivos
Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy
cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy
lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy
petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo
de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda
cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se
han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)
Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no
necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy
riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy
res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de
desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las
soluciones que se conservaran como padres para la siguiente generacion
En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio
completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un
24
j~ ~g f~rOH~~
ixf--fC
Jesus Antonio HernAndez Riveros y Juan David Ospina Arango
subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j
tes generaciones de una poblaci6nt i
reproducci6n De generacion en
en la poblacion por medio de la
soluciones Un AE es un proceso i condicion se satisface normal mer
za un criterio de terminaci6n La I I
descripciones candidatas denomin I
esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I
II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e
I generaci6n Gn bull EI proceso tambie~1
dados no se presente una mejora en i
mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ
S610 pueden tener descendencia los 1
iden ser cadenas (strmgs) de sfmholos i
16gicos 0 representaciones mixtas Pl
estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I
en el dominio del problema para ese 1
va se desarrollaron porgrupos difere1
Solamente en los ultimos afios se acu
todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij
puede diferir de otro y por tanto la V
tradicionales estan los Algoritmos GeJ
I
I I I
Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
annealing)
estan los alshy
evolutiva y
por ejemplo
tipo GARCH
I geneticos con I ) en Matlab En de gene~arlos
1e uti Izan pro-I iol6gica (Ho-
IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)
lensayar (no t
Icrea aleato-I los opemdoshy
ndiCador de I lecciona las
el espacio
-- - Fei6n a un I
1
subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en
poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy
tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de
reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad
en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales
soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta
condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy
za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de
descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de
est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy
res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente
generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la
proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la
generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios
dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy
miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones
candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica
Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy
den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles
logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una
estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy
buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor
en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy
va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores
Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a
todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva
Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo
puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques
tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion
25
Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos
Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que
las diferendas se reducen al tipo de estructuras de datos para representar los individuos los
modos de cambio en las soludones para crear los descendientes yen el procedimiento para
seleccionar los nuevos padres (Hernandez 1999)
Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres
_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se
se interpreta l
principal es j
Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa
Ie especie se
escendencia I
ado A cada t ~ buena sea
ecdonados
~to produceI SUS padres
operadores i
lera resulta I ~I problemaI os criterios
)njuntos de I ~stas vana- del mundo
Jesus Antonio ltemandez Riveros y Juan David Ospina Arango
real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una
tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo
principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos
individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy
nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n
de los individuos usual mente es un vector de val ores reales con los campos a considerar del
problema a solucionar
Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy
duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como
maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables
objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas
y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema
de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de
solucion es computacionalmente adecuada
Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de
los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en
lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA
depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-
teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo
de Selecd6n EI esquema general de un EA se muestra en el algoritmo I
Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)
2 E~aci6n M(t)
3 repetir
4 t =t+ 1
5 Selecti6n de individuo de M(t)
6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas
7 M(t)middot M(t)
8 Evalue M(t)
9 elitelio de finhudon
27
-------------
Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos
341 Opcracioncs gcneticas
Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos
mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley
1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy
sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se
puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0
y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo
Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que
R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy
cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de
mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de
manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos
resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad
en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la
replicaci6n no necesariamente se limite a los individuos mas aptos
Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy
de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot
generacion los padres no necesariamente tendran lugar en la poblacion emergente En el
Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos
individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy
toria el punto de cruce en las cadenas que representan a esos individuos yse genera un
descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del
otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con
un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy
dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n
La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones
aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el
AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy
28middot
~~IiI ~ --=====--
-------if fisticadas como el cruzamiento geometrico En
se usa la recombinaci6n de forma directa sino
cruzamiento es una operaci6n que combina d
dos individuos en la generaci6n k + 1 En sti
de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai
partir del ~ercer ~~n puede representarse c~
En esta operaclOn es Importante tener d I
punto de cruce pues dentro de un esque I
de caracterlsticas es decir que si los prJ i
compacta una caracterfstica de la soluc
tener necesariamente un efecto positivi
La raz6n de cruzamiento es el polI
zamiento Esta raz6n esta relacionaq
aumenta el espacio de bUsqueda tal
cantidad de tiempo de c6mputo exl
del espacio de bUsqueda I Mutaci6n La mutacion es un
I e1 manejo de lao rcpresentaCI6
la poblacion y cvitar asf caer
ejecuta con base en una mu
representaci6n de los indivd
mutaci6n se realiza ~dicionl I
aleatorio normal mente dis
de los individuos es en vaIr
Estrategias de Evoluci6nl I
las maquinas de est ado 1
L-~
Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos
341 Operaciones geneticas
Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos
mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley
1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy
tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo
6n k + 1 sin sufrir cambios Asf que I
I Una mayor diversidad en la poblashy
~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de
ducto de su cruce con los mas aptos
0 explorado Una mayor diversidad
local y de ahf Ia propuesta que la as aptos
Il a Ia reproduccion sexual en donshy
cero que hara parte de Ia nueva I
1 la poblaci6n emergente En el
Iento en un punto Esto es dos
Irmina tam bien de forma aleashy1
~s individuos y se genera un
1 icon la subcadena derecha del I
se aplica generalmente con
Irecombinacion es el opera-
8 de una nueva poblaci6n
ando se hacen selecciones
Izamlento unhorme en e itmetico 0 variantes so- t
I
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no
se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional
para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el
cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir
dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion
de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy
viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a
partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)
En esta operacion es importante tener cuidado con la selecci6n del gen que determina el
punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion
de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina
compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que
tener necesariamente un efecto positivo en la creaci6n de mejores individuos
La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy
zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si
aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran
cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera
del espacio de bUsqueda
Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en
el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en
la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se
ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla
representacion de los individuos consiste en variables reales y panimetros de estrategia Ia
mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor
aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n
de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de
Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de
las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada
29
Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
cambio en la salida cambio en la transicion adicion de un estado borrado de un estado
La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan
cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor
otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad
en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena
para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n
del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se
escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n
consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que
conforma un individuo
La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0
para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo
contexto
342 La aptitud
Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un
individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por
el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias
interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-
babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -
padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy
va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el
transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar
con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos
motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy
duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos
para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de
30
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
la poblacion La forma en que cada individuo responde al problema se mide con la funcion
de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______
I shy(0 problema q
la selecci6n i j
el escalamient
caIa~iento sel
para cada indi I
val ores de la fl
ceso evolutivo
de la variaJlza I algun criterio
objetivo Genei
Elordenimi 1
cionada y orgar i
ser organizar ld
I jaSlgna un va or
I 343 La 51
La selecci61
muchas manerJ
nimizacion de j proceso r~qUieJj ma~encia de 10
1
diversidad y pdI
es uno de los p
Geneticos la sd
dd d IIn IVI uo eten I
I sea en unaJera~
I
ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos
cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado
La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan
cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por
otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-
ici6nse escoge uno 0 varios puntos dela cadena
neticos (AG) Ia mutacion consiste en Ia inversion
6n del individuo 11010 en Ia cuarta pDsicion se
ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que
0 estaban inc1uidDs en la pDblacion inicial 0
utivo con el fin de explorarlos en un nuevo
de eVDluci6n adaptativa en el cual un
viduos de esa misma pDblacion y Por
e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~
~an la informacion genetic a de IDS
actuando para la creaci6n de nueshy
i eleccion y diseminacion CDn el
s~ructuras capaces de enfrentar
d d d~s In IVI UDS que por IverSDS
efio adecuado De IDS indivishy
itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-
una nueva generaclOn de
-
Jesus Antonio Hernandez Riveros y Juan David ospina Arango
la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n
de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD
(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de
la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son
el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy
calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD
para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS
valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy
ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n
de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a
algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n
Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo
EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy
cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede
ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD
asigna un valDr cuantitativD de aptitud a cada individuo
343 La seleccion
La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de
mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy
nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este
poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy
manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la
diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que
es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos
Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un
individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya
sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular
31
~f~r-iJ2~T~ti~~
la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy
riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que
sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda
la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea
una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la
mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los
padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante
probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este
caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull
de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se
toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy
ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de
la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se
calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores
de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un
m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que
la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo
elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para
aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar
competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con
mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole
asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud
EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor
aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte
generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-
tizar Ia convergencia de un AG
32
Iesu Antonio Hernandez Rivero y Juan David Ospina Arango
344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~
I I
Algunas I
que se ha es
titud y un sJ
de la no coni
nar funcione I
como una e~
dl algontmos t
cos convencil
generaci6n a I
1996) En am
de aptitud ya
de b6squeda I
con los algoril I
AG para gene1I
probabilidad 01 1
generan nuevo~ I
individuos des~ I
los EDA modil I
epistasis (probl
dos eficientem~ para realizar la ~ I basan en una teo
j do tecnicas estac
de la estructura
estimar la distrill
Antes de entt
mos evolutivos bl I
Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos
Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~
----~~
--- -i riamen t --~ ---cionanlos mejores de ellos para que
proceso hasta que se complete toda
~elecci6n es determinfstica se crea
br medio de la recombinaci6n y la
escendien~es para reemplazar los
~i6n Evolutiva utiJiza una variante
Estrategias de Evoluci6n En este
~po de otras soluciones elegidas I
hijos De cada comparaci6n se
t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I
ad de superivencia Ia cual se
re la ~~matoria de los vah)res
~ Luego de esto se genera un uos aleatoriamente hasta que ~
ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar
hra elegir al individuo con I manera aleatoria dandole t I
bajOS valores de aptitud
el individuo con mayor Ii copiado ~n la siguie~te
a condici6n para garanshy I I
I bull I
- 1 i
I
11~W$rutH fie~_M~~
n~tl-r(~ i ~ ~lt
Jesus Antonio lIemandez Riveros y Juan David Ospina Arango
344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion
Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar
que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy
titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa
de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy
nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron
como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son
algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy
cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente
generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass
1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor
de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n
de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original
con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los
AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de
probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE
generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos
individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos
los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de
epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy
dos eficientemente porque la dependencia de informaci6n entre variables es materia prima
para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se
basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy
do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir
de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede
estimar la distribuci6n a partir de la correlaci6n entre los datos
Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit
mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos
33
I
Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional
Sea S el espacio de bUsqueda y F la funci6n de aptitud
Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI
proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde
F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~
cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x
de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo
q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes
propiedades
1 Para todo x enM D (x x) O
2 Para todo x y en lvI D (x y) = D (y x)
3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)
Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee
una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que
a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy
forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con
el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan
pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy
tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en
e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio
Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros
reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy
babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun
punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego
se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable
de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F
Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para
34
i que AE lIegue a unl
i computable de pase
I tiene uri punto q e
I es para cada subci
i (p E P J AE(OJ
Notese que en I
especificarse comp
generacion se gen~ I
especffico es posil
EDA (Harik y Gd I
nuevos individuo~ I
bull IgenetIcos estocas
del proceso de e~ individuos que c~ mayor aptitud ~
La teorfa deI (building blocks
lutivos que ma~ I
res BC Estos 0
traves de las op
nes gen6tieas sJ
los algoritmos J I
Con frecuencia
1 ICIa entre os St
conoce como I del si~tema 0 I aita entropfa Ii
sistema a mel
porquelosinJ i
------ --------L-usando Algoritmos Evolutivos
Ide algoritmo eyolutivo tradicional i ion de aptitud I
Imente finito y topol6gicamente compacto EI 1
contrar un punto en el subespacio AI en donde
io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x
b 1ple La tarea es encontrar un punto 0 ~et1vo
0 memca en M que satisface las siguientes
-
D (y z) (desigualdad triangular) ~
icion de uniformidad es decir M posee
~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy
middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan
fesariO constr~~run aIgoritmo evolushy
proceso estocashco que se mueve en
d fi d lar In e flI amente en este espaclO
ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy
itmo evolutivo comienza en algun
icogido de forma aleatoria Luego
I etc En un numero computable
I
i da de la funcion de aptitud F
- tiene una probabiJidad p Para
h
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero
computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy
tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto
es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p
(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande
Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede
especificarse completamente por unos pocos parametros Todos los individuos de la siguiente
generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento
especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los
EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los
nuevos individuos se producen manipulando los individuos actuales por medio de operadores
geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico
del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar
individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de
mayor aptitud M dentro del espacio de busqueda S
La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n
(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy
lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy
res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a
traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy
nes geneticas son independientes del problema esto no significa que en algunas ocasiones
los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC
Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy
cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se
conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel
def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de
alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de
sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce
porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de
35
Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS
los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para
generar mejores individuos
Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy
jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes
de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta
plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy
ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones
en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de
las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j
mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las
variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion
agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten
los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy
binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda
es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n
de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto
completo de soluciones prometedoras para generar nuevos mejores individuos
En general hay tres clases de soluciones para encarar d linkage problem la primera bashy
sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay
Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy
to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste
en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n
se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic
Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion
de la Distribucion (Estimation Distributionilgorithms)
Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy
ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy
ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy
racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que
36
forman los individuo~ buci6n de probabilida~
si es el caso en los alg
ci6n cruzamiento 0 mu~
poblacion las relaciones
tamente modeladas No (
necesario lIevar a cabo CO relaciones de dependencia-
un grupo de individuos de IJ
da Ia poblaci6n no es muy u~
estimar de Ia poblacion un m6
cuerpo de dependencias entre
sea el modele mayor tIempo COl I
jidad del modelo surgen las vari
simultiineamente los modelos a a
ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion
y Biv~riados se sacrifica riqueza en 1
delo Entre los modelos univariados
I B Algorithm) y el PBIL (Popu atl~n a
necesitan estructuras de aprendlzaJe pi
que la distribucion de probabilidad coAl
P(Xh X2
En el algoritmo de aprendizaje increJ ~
bola estimacion de la distribucion aSUml
Goldberg y Cantu-Paz 1998)Los nuevos
Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos
los individuos comienzaa tener gran importancia la informacion mutua como recurso para
generar ~ejores in~iY9uOS-~--- -----~ i
n-----~ rias opciones Por ejemplo en el maneshy-~----
-~-- hndo una plantilla con los componentes
tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-
Ividuos al identificar las interacciones
peradores junto con Ia evolucion de
luci6n se implement6 en el algoritshy
~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon
la recombinaci6n se fragmenten
I manejo del operador de recomshy
llagilefias La opcion que queda
ean diferentes a la replicacion
traer informacion del conjunto Iores individuos
~age problem la primera bashy
Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste
duos Esta ultima opci6n
abilfsticos (Probabilistic
19oritmos de Estimaci6n
II y reciente metaheurlstishy
1 Los EDA son algoshy
de la siguiente gene-I
I bl Ina as vana es que
-~
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy
buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como
si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy
cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la
poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy
tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es
necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas
relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba
un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy
da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0
estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el
cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo
sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy
jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar
simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy
ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando
se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden
incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados
y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy
delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution
Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no
necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen
qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)
n
P(XIX2 Xn ) = fIp(x) (32) =1
En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy
bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan
Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector
37
Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos
de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot
recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo
de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la
distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman
a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se
obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones
parciales BC de orden mayor que uno continuan perturbadas
Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que
factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)
n
p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)
en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de
variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy
ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar
la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones
de orden mayor que uno son pareadas Las interacciones entre variables de orden superior
permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del
problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy
que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez
1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen
se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado
emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg
y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los
BC por su habilidad para capturar con precision la estructura (BC) de un problema dado
superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy
cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo
2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n
38
Jeus Antonio lIemandez Rivero y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n
2 Evaluar M(t)
3 repetir
4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio
6 Estimar 10 distribuci6n de S - D
7 Generar n individuos (muestras) de D_
8 Evaluar AI()
9 hasta que satisfacer un criterio de finalizacion
35 Elalgoritmo EAMN
El algoritmo propuesto denomlnado Al I
mal Mu1tivaraida (EAMN) comparte algI I
Algoritmos Evolutivos (~A) Es un algori~
6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I
Como los EDAs el EAMN usa distrib~ I
no para ajustar un modelo a los mejores in( ~ I
Entre las posihilidades para tener en cuenu I
el proceso de aprendizaje de los EDA sel
2006)
I Generar individuos mas aptos para
al considerar su valor de aptitud E
de aptitud se asignan pesos a los i
proceso de aprendizaje del EDA
2 Aplicar un metodo de selecci6n pro
3 C~nsiderar el valor de aptitud com
incluir este valor junto con los indi 1
d mutro Ypmlaj del ED1
I
Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----
IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I
sma tecnica de estimaci6n de la
lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones
I
prendizaje parametrico ya que
hal como en la ecuaci6n (33) I
~ i (Xi)) (33)I
i s) y se asume que el restode
icia las cadenas de distribu-I ente aplicados para estimar
II no todas las interacciones Ii
_ ~riables de orden superior
I ldli mpOSIClon estructura e 1 bull
tonzada Este es el enfoshy
in Mahnig y Rodriguez I
fO si estas se desconocen
mente y se ha observado Ii par (Pelikan Goldberg
mezcla efectiva delos
Ide un problema dado
Ipefios lineales y cuasishyt I
titud En el a1goritmo I I
1I
stribuci6n - J
1
Jesus Antonio lIernandez Riveros y Juan David Ospina Arango
Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n
2 Evaillar M(t
3 repetir
4 t =t+l
5 Selecci6n de 5t M individuos bajo algun criterio
6 Etimar 1a distribuci6n de 5t ~ D t
7 Generar it individuo (muestrs) de D
8 Evaillar Mt)
9 hasta que satisfacer lln criterio de finalizacion
35 Elalgoritmo EAMN
EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy
mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los
Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el
optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de
conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas
Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos
no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda
Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante
el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga
2006)
I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica
aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor
de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el
proceso deaprendizaje del EDA
2 Aplicar un metodo de selecci6n proporcional
3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al
hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos
de muestreo y aprendizllie del EDA
39
4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion
supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy
duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo
con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy
porcionaL
Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de
un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy
dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia
Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)
EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con
lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division
viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y
el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos
Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se
mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia
cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados
y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy
individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz
de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera
se crean los individuos de Ia siguiente generacion
EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como
alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el
mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion
del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n
nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos
con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~
individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre
X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una
40
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para
contiolar Ia convergencia Asi
Xh~J
Este proceso de c1onacion+mutd
las estrategias evolutivas En estas ~
junto de padres se lleva a cabo el pr~
conjunto formado por los padres y 10 1
En el algoritmo EAM Nhay un umc
el mejor individuo Por esto se pue
remplazados por individuos que a su 1 I middot I
La distribuci6n normal mu t1vana~
ros aleatorios y el amplio conocimien I
el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo
La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1
I diversidad de Ia poblaci6n pero tamb
xi = (xtl xt2 xS el i-esimo in
nera sea x~ el mejor individuo de Ia j-e
que se efectua usando una f~nci~n h
considera h una transformac16n hneal d
transformaci6n propuesta se muestra en xf+ It (xinxflc1
donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~
deben moverse en cada direcci6n del espaclOl
I
Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (
iduos de la poblaci6n en diferentes clases y haciendo
Is EAMN aplicamos el enfoque de la selecci6n proshy
I
limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy
squeda inicial D denominada poblacion inicial I
inci6n objetivo (0 una funci6n derivada de ella)
ido en dos grupos el grupo elite (aquell08 con
08 peores individuos Despues de esta divisi6n
tiene un tamafio aproximado de Pel x 100 y tmiddot -
damente (1 - Pel) x 100 individu~s
lejor individuo y el resto del grupo elite se
lleva a cabo con una transformaci6n h la
~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con
l1edia igual al mejor individuo y matriz
de toda la poblaci6n De esta mane~ V
~teriO que puede ser ~scogido como
n cambio relativo pequeno entre el
un umbra Si se define la soluci6n
esta garantizado que la soluci6n
ma de remplazar los individuos fa ~n que se genera los nuevos
ma vez seleccionado un padre
- uacion (34) donde D es una
r
Iesus Antonio Hernandez River y Iuan David Ospina Arango
matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para
controlar la convergencia ASI
(34)
Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de
las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy
junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del
conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n
En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n
eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son
remplazados por individuos que a su vez son mutaciones del mejor individuo
La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy
ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar
el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa
en la vecindad del individuo con mejor valor de la funci6n objetivo
La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy
jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de
diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea
x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy
nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento
que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se
considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La
transformacion propuesta se muestra en la ecuaci6n (35)
(35)
donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una
constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos
deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver
41
Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de
los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el
nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It
garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)
II~ x+111 = II~ -h (~)xlcK(j))11 (36)
llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que
(37)
donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una
norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as
matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente
para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial
especificada se satisfaga la ecuacion (38)
(38)
Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros
I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion
dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy
viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica
la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la
velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy
jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia
disminuye
El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i
351 Resultados
Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas
funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se
42
lesu Antonio Hernandez Rivero y luan David Ospina Arango
Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial
2 repetir
3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p
transformaci6n adecuada
5 Gener (1 - Ped x 100 in
covarianzas igual a la matriz de t I
6 hasta que satisfacer algun criterio d
puede ver en (Ingber y Rose
rativos se reporta el tiempo d
2GB de memoria RAM para J y el espacio de bUsqueda era
algoritmo no fue disefiado par
valor muy alto a los individuoJ I
buenos resultados Todas las PI
La runcion de Rosenbrock I
I Conocida tambien como h
muestra esta superficie en la fiJ
I f (x)
La funcion de Rosenbrock l para esta funcion se muestran e
el optimo se a1canzo en la gene
La figura 31 ilustra la evolJ
Funcion de Rastrigin
Esta funcion estii compuest
molt) 101 diibod 1 I
I
Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
--~--l
- -lacion reduce la distancia entre uno de
de dicha generaci6n para conservar el I
nla ecuaci6n (36) Adicionalmente h I
~ generaci6n (elitismo)
~K(j))11 (36)
I~ xi) II i
beque
(37)Xh xiII
~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente
1l1im m m~1 y oci1
I (38)
Ii oritmo es controlado por dos panimetros I
a generacion para satisfacer la condicion
riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I
Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-
I in aumenta y la velocidad de convergencia 11
I1 ~ropuestoII
I II In seis funciones de prueba estandar Estas
I iob~r algoritmos de optimizacion como se
I [
I I
lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango
Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial
2 repetir
3 Evaluar cada indiyiduo con la funciOn de ajuste
4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la
transformaci6n adecuada
5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de
covarianza igual a I matriz de covarianz estirnada de I poblaci6n
6 hasla que salisfacer agun criterio de finalizaci6n
puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy
rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz
2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005
y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el
algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un
valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo
buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a
La fnndon de Rosenbrock
Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se
muestra esta superficie en la figura 31
k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)
=1 -2048 Xi 2048 i == 12 k
La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados
para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y
eloptimo se aIcanz6 en la generaci6n 87
La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock
Fnncion de Rastrigin
Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy
mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se
43
Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos
Generaci6n Funci6n Objetivo Soluci6n
value
10 00381 (0814006686)
20 00074 (0990109888)
30 579 X 10-4 (0976409529)
40 544 X 10-4 (10233 10470)
50 112 X 10- (0993109855)
Tabla 31 Resultados para la funeion de Rosenbrock
define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La
funci6n se muestra en la figura 3~2
k
f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1
-512 Xi 512i = 12 k
Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para
300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167
Generaci6n Funci6n objetivo Solution
value
10 23465 (10309 -10175)
20 01555 ( -00204 -00192)
30 01555 (-00204 -00192)
40 00897 (-00104 -00186)
50 00217 (-0006100085)
Tabla 32 Resultados para la funcion de Rastrigin
En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy
zaci6n de la flinci6n de Rastrigin
Funcion de Schwefel
La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace
que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define
como en la ecuaci6n (311) y se muestra en la figura 33
44
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
k (311)f (X) = Lxi sin (JiXJ)
=1 -500 Xi 500 i = 12 k
La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I
para esta funci6n se presentan en la t~ I
segundos y el 6ptimo se alcanz6 en la I __ ---it
Generacion I 10 20
30
40
50 I
Tabla
I La figura 33 presenta algunos p
I milaci6n de la funci6n de Schwefel
I Funcion de Griewangk j
La funci6n de Griewangk es Sl
mos locales distribuidos en todo sl regular La definici6n de esta fund
figura 34 Su minimo global es Ji usado fue de 200 y el numero nd
fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt
I graficas de la evoluci6n de la pot
J
Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos
Solucion
(0990109888) I (0976409529) (1023310470)
(0993109855)
I de Rosenbrock
I
uentra en f (x) 0 x = (0 0) La
j I Icos (271Xi)) (310)
I i 12 k
en la tabla 32 EI tiempo de CPU para
en la generaci6n 167
1 SoJudon
il 10300 -10175)
0204 -00192) n0204 -00192)
]
)0104 -00186)
[ 0006100085)
IIrdc Rastrigin
I i ledios en el proceso evolutivo de la optimishy
1i I
11
[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define
Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango
k
f(x) = Lgti sin (JiXJ) (311) =1
-500 Xi 500 i 12 k
La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados
para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032
segundos y eloptimo se alcanzo en la generacion 115
Generaci6n Funci6n objetivo Soluci6n
value
10 -7653079 (43929294366133)
20 -8318733 (42103154140626)
30 -8362015 (42470654209365)
40 -8378619 (42049844214748)
50 -8379648 (42103684210224)
Tabla 33 Resultados para la funci6n de Schwefel
La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy
mizacion de la funcion de Schwefel
Funcion de Griewangk
La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy
mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es
regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la
figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n
usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El
tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para
esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las
gnificas de la evolucion de la poblaci6n
~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1
-600 ~ Xi 600i = 12 k
45
I
Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos
Generaci6n Funci6n objelivo Soluci6n
value
100 750 X (32265 -01239
-11149059533)
1000 180 x 10-2 (31810 -42653
-00982 -00787)
2000 773 X 10-3 ( -0068400795
00619 -01390)
3000 259 X 10-3 (0021100823
-0028400(56)
3396 0 (224 x 10-9 -384 x 10-10
116 X 10-8 151 X 10-9 )
Tabla 34 Resultados para la fimci6n de Griewangk
Funcion Goldstein-Price
La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la
ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse
en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300
generaciones fue 060 segundos y en la tabla 35 se presentan los resultados
f (x) = (1 + (Xl + X2 + 1)2 x
(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)
(30 + (2Xl - 3X2)2 X
(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12
Generad6n Funci6n objetivo Soluci6n
value
10 30505 (-00100 -09944)
20 30030 (-00011 -10028)
30 30008 (-00014 -09994)
40 30006 (00010 -10006)
50 30000
Tabla 35 Resultados para 1 funcion GoldsteinPrice ~
En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n
46
Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---
Funcion de las seis jorobas
Esta funci6n se detalla en
x (00898 -07126) EI
dos se presentan en la tabla 36
Gen
10
20
30
40
50
Tabla 36 F I
La figura 36 muestra la super
a la optimizaci6n de la funci6n de
36 Algunas conch
El algoritmo EAMN que se hJ
de valor real Las pruebas llevadJ
peno satisfactoriamente manejandl
Es destacable que aunque el EA
l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman
Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos
~---
I
~~-------------shy Soluci6n
265 -01239
~11l490 59533)I 10 -42653
00982 -00787)
168400795 i l0919 -01390)I1100823 I 0028400(56) I
L-384 X 10-10 I10-8 151 x 10-9 )
I
tGriewangk
I i
2 JllI de prueba definida como en la
~livad6n de esla fundon puede hallarse
-1) = 3 EI tiempo de CPU para 300
lOS resultados
IIxm x 1 (313)
r 27xm jit = 12
----shy
9944
Po28
I 1994 I I
f6I loooo) I
ceo I
en la evoluci6n de la poblacion
i ~
J I
I
Jesus Antonio lIernandez Rivero y Juan David Ospina Arango
durante la oplimizaci6n de la funcion de Goldstein-Price
FUllcioll de las seis jorobas de camello (Six-hump camel back)
Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis
mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y
x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy
dos se presentan en la tabla 36
f (x) = (4 - 21xt +xi3) xi (314)
+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2
Generacion Funci6n objetivo Soluci6n
value
10 -09761 (-0024506823)
20 -10270 (-0091006886)
30 -10316 (-00900 07101)
40 -10316 (-0088107121)
50 -10316
Tabla 36 Resultados para la funci6n de las seis jocobas de carnello
La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente
ala optimizad6n de la fund6n de Goldstein-Price
36 Algunas conclusiones acerca del algoritmo EAMN
EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones
de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy
peii6 satisfactoriamente manejando restricdones de desigualdades
Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy
terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que
controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el
47
Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo
criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock
la poblacion tambien debe aumentarse a fin de obtener una buena solucion
Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este
tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy
da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se
puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas
asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos
de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy
ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente
generacion
48
Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s
criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de
la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n
Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este
tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy
da de la poblari~ bull as de optimizaci6n combinatoria se
reta y sus vcrsioncs multivariadas
Vcr ecuaci6n (3 5)) Otros t6picos
lS por ruido y cillso de otras funshy
gtn de individuos para la siguiente
Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo
Funci6n de Rosembrock
x
(a) Funci6n de Rosembrock
Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10
N M
(b) Generueion 1
Funcion de Rosembrock Generacion 20
X
(e) Generaci6n 10
Funclon de Rosembrock Generacion 50
(d) Genemei6n 20 (e) Gcneraci6n 50
Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock
49
E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s
Funci6n de Rastrigin
(a) Funcion de Rastrigrin
Funci6n de Rastrigin Generacion 1
N
(b) Gencracion I
N
(d) Gcneraci6n 50
N
(c) Gcneracion 10
Funcion de Rastrigin Generacion 100
N
(e) Gcneraci6n 100
Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin
50
Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~
----------~~--~--
Funci6n de Schwefel Gener
N
(b) Generaci6n I
Funcl6n de Schwefel Generac
(d) Generacion 30
N
Figur 33 Evoluci6n de I p
t~ ilildo Algorillllos EnJlutivos
1e Rastrigin
igrin
bull - bull I
ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0
~ o~ 0 bull ~ I
O I 5
~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~
c) Generacion 10
Rastrigin Generaci6n 100
x
~c i 6n 100
middotastrigin
Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango
Funci6n de Schwefel
(a) Funei6n de Schwefel
Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10
(b) Generaei6n 1 (e) Generacion 10
Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80
x
(d) Generaci6n 30
x
(e) Gcneraci6n 80
x ~
M ~
Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl
51
I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~
Funci6n de Griewangk
Figura 34 Funci6n de Griewangk
Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn
Fund6n de I
(l
(d)
Figura
52
Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango
Funcion de Goldstein-Price
bull 10 bull
(a) Funci6n de Goldstein-Price
Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10
bullN
X
(b) Generaci6n 1 (c) Generaci6n 10
50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n
X
(d) Generaci6n 20 (e) Generaci6n 50
Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price
53
X
ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos
Funci6n de las seis jorobas de camello
(a) Funcion de las seis jorobas de camello
I
ft ~ I
I
I
l I
J I
(b) Gcncraeion I (e) Generacion 10
FunCI6n de las sets Jorobas de cametlo GeneradOn 50
(d) Generacion 20 (e) Generaei6n 50
Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello
54
Seccion 4
Estimacion del n
EI principal interes de este trabajc
evolutivos res pee to a los algoritmos c
objetivo (2 16) correspondiente al me
en la aplicacion y comparaci6n de los
Matlab R20008a con el toolbox de A
I SQP (Sequential Quadratic Pn
2 Algoritmos Geneticos hfbrido
3 EAMN propuesto en este tral
41 Estimacion del
Se encontr6 evidencia de supe
La evidencia consiste en que el al
hess iana Sin embargo el proceso I
con proc nlin colapso con mucha I
haber lIegado a una matriz hessian
a valorcs aceptables En la figura
Ejemplo Para un modelo A
41 se simularon T = 6000 date
Estimacion de Parmetros en Model n
lcamello
~
Seccion4
Estimacion del modelo ASVI
EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos
evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n
objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste
en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en
Mallab R20008a con el toolbox de Algoritmos Geneticos
I SQP (Sequential Quadratic Programming)
2 Algoritmos Geneticos hibridos con SQP
3 EAMN propuesto en este trabajo
41 Estimacion del modelo EGARCH-SNP (214)
Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual
La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz
hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS
con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el
haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge
a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo
Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro
41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados
55
Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo
esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele
EGARCH(lI)-SNP(4) (214) es decir es
T
QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1
donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo
Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM
w t3 0 I
valores reale -120 090 -024 018
W jj i I valores estirnados -11930 09020 -02401 01441
dl d d3 d4
valores estimados -0100 -0100 00415 00372
J-
Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP
Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del
SQP
56
42 ---~
i EI~
I
Gauss-~ de optil
I Incstai
I En
ecuaci~
Estaecl
te alto I I
Ejl
(wj3 puede
ciar ed I
parec~
j
ntm1[
(42)l
I
i
Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango
__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos
este caso corresponde a la log-verosimililud del modelo
log(f(ytat d)at) (41)
~ - Jl(d))
ti6n QML en ASVI ron AGmiddotNM
3 a I
090 middot024 018
Ii a I 09020 ~2401 01441
da d4 d 0100 00415 00372
Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango
42 Estimacion EMM con Optimizacion SQP y AG-SQP
EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej
Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo
de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n
Inestabilidad de la Recursion (42)
En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la
ecuaci6n (42)
~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l
Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy
te alto y luego volver a valores normales
Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =
(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00
puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy
ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala
parecen ser nulos
2
ol~-----------__J
Figura 42 Grafica deln 17J en I ecuaci6n (42)
Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy
ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en
(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los
57
Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos
mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones
que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy
cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no
acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant
y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las
siguientes se implementaron para los cilculos de esta seecion
HX + ~ arctan (~(x + t1))-- t1 si x lt -tr
x x si -t1 lt x lt t1 (43)
x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x
x 4t1eX tT (1 + extTl - 2tr (44)
La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata
Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)
con t1 40 a Zt Y(Uj-lt 0) Cl
Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy
te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~
dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))
n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy
les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro
00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden
apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras
simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico
realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel
Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n
es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy
ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en
(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i
conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O
En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N
58
Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango
fmiddot 1
1S I~ 3 ~~ lltI0 i 111
I ~ 1 j wU ~
~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_
Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a
10000 en la simulaci6n internal f
la columna Preliminar estan I
columna SQP estii el resultad
con el modele a~xi1iar N6tes~1 este parametro Algo no de sea
de dos corridas del algoritmo e I
En el cuadro 43 estiin 101 SQP Se muestran los resultad
servan en los val ores estimad1 I puede observar que en prome(
I sultados anteriores Es claro q(
I aumentando el numero de c01
sustentada Pero por el mome
satisfactorios IT
ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________
licnto) automaticamcnlC dcscartnrfan soluciones
nenle La funci6n objetivo es de diffcil cvaluashy
tivamenlc pocos individuos COll1piliendo y no
generaciones fijo Gallant y Tauchcn (Gallant
lciones para eslabilizar la recursi6n (42) Las
- tr si x lt - tr
(43)si - tr lt x lt tr
tr sitr lt x
) - 2tl (44)
)nes para estabilizar (42) no es inmediala
i valores In 6j2 mientras que aplicar (44)
las trans formaciones anteriores consisshy
ular Qr(O) para valores de 0 simulashy
o verdadero 00 On ~ Unij(B6(OO))
~ revelar la presencia de mfnimos locashy
ores de 0 E jR4 en una bola de centro
nodificado para (3 lt 1 ) se pueden
lt(0) se calcul6 con base en muestras
s el siguicnte un algoritmo genetico
Iares a los que se tienen en el panel
ean mas dispersos Una conclusi6n
por el hecho de la moda pronunshy
10 del algoritmo genetico pej en
) de estimaci6n Con base en esta
er el estimador EMM de O
del metodo EMM usando N =
Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango
shy shy4a
--
-
amp q
Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2
corr~sJXmde II Ii d 1 a w y el venical a Q
10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En
la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la
columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido
con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para
este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados
de dos corridas del algorilmo genetico con 15 generaciones como maximo
En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con
SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy
servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se
puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy
sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas
aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas
sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados
satis factorios
Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG
Real I Preliminar I SQP I AG I I AG2
-12000 -06389 -07389 -07052 -06078
(3
w
09000 09496 09999 09386 09464
Q -02400 -02073 -03073 -02180 -02842
Y 01800 01615 02615 00773 01245
59
Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos
Tabla 43 Resultados de Estimaci6n EMM con AG-SQP
Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3
-12000 -07998 -07896 -08864 -07686w
09000 09357 09349 09274 09363
O -02400 -02270 -01659 -02877 -01306
01800 00732 01388 01732 0016511
Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy
blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico
con a lt O
43 Estimacion del modelo ASVI utilizando EAMN
Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito
en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos
anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que
eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -
obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de
optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha
implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n
Tabla44 u a os So ImaCl n j con
Real IPrelirnioar I EAMN
w -12000 -07998 -07896
09000 09357 09349
O i -02400 -02270 -01659
I I 01800 00732 01388
Res It d deE t 6 EMM EAMN
60
Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango
431 Una comparacion Ir---~=~~ -------= ----shy
Con el fin de que ellector pueda hacerseal ------ shy
de oplimizaci6n para estimar el modelo ASVI
E d d d d Iferror_ SIOS In lea ores no son eVI encla e I
mente un marco de comparaci6n de los resull f
La tabla 45 presenta los errores porcen
de los siete metodos de optimizaci6n empt
f I Iaor real - 1alor esimado xjormu a error v orre
IPor otro lado la tabla 46 presenta e
~~ (valor real-valoreslimadocomo erne= n
mediante estudios del tipo Monte carl
Tabla 45 Errores r
SQP AGl Admiddot I
w 3842 4123 49If3 11l0 429 5 I
a 2804 083 2lf
f 4528 5706 ~
SQP AGI
I EMC 0058 OOf
I
44 COUeJUSiO
A 10 largo de esta sea
del modelo ASVI coni proceso de volatilidad
I
ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________
tSQP
2 AG-SQP3
t -07686 I
09363 -01306 I
00165
= 0 no representa ningun proshy
ipresenta en el cas~ asimetrico I
I
doEAMN il lbabilistico EAMN descrito h11 problema que se presenta
lobtenidos con los metodos 1 ~e la f~nci6n objetivo que
- espaclO de busqueda No 11 ito a los otros metodos de
naci6n con EAMN s~ ha
~ar la recursi6n
1 1 1
1
I
I i
I I
--J
II
431 Una comparacion
Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo
de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de
error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy
mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo
La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno
de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la
f6rmula error = L~F-E~= x 100
Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido
como emc= Esta comparaci6n usual en ingenierla necesita refinarse
mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella
Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n
SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN
w 3842 4123 4935 3420 2613 3595 3420
(3 1110 429 516 388 304 403 388
a 2804 083 21842 3088 1988 4558 3088
Y 4528 5706 3083 2289 378 9083 2289
Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n
SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN
EMC 0058 0064 0158 0044 0025 0057 0044
44 ConcIusiones
A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n
del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el
proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en
61
Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos
alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa
que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo
auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste
fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la
estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos
con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -
aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto
en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo
ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n
de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n
62
ApendiceA
Programas I
del modelo I
I d I
I En este apen Ice se pi
resultados de este trabajo
I
AI C6digo d
function [SOlfbJ
bull minae (fob j nu)
Algoritmo evol
fobj=f_o I
numpar numero
[ 1 Imln= mln_ j
max= [max_I
n numero de
h tamafio de I p_e porcent
la Siguiente
Min=zeros ( [h n
I
I I
laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy
d Si mbbullbull Itmi~
a utilizaci6n de los panimetros del modelo
~ del modelb ASVl que mediante ajuste lt
s de la serie observada Al respectode la
vale anotar que los resultadosobtenidos
son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto
nadores de los panimetros de un modele
f d b I shyI un rente e tra aJo para a esllmaclOn
estimaci6n de la distribuci6n I
lt
I
L~nti~2ri~~lt~ Da~rlC~ ~~ ~
Apendice A
Programas en Matlab para la estimacion
del modelo ASVl
En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los
resultados de este trabajo
At C6digo del EAMN
function [solfbestmejorindmejorfK]=
minae(fobjnumparminimaxinhp_e)
Algoritmo evolutivo probabilistico para optimizar la funci6n fobj
numpar numero de variables de la funcion
min=[min_li min_numpar]i
max=[max_l max_numpar]
n numero de generaciones
h tamafio de la poblacion
p_e porcentaje de elite porci6n de la poblacion que se clona a
la siguiente generacion
Min=zeros([hnumpar])
63
Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Max=Min
f=zeros(hn) Numero de evaluaciones de la fun cion objetivo
diferencias=zeros(round(hp_e)-lnumpar)
e=000005 Factor multiplicador
rand(seed4) Se fija la semilla para reproducir los
resultados
nnorm=h-round(hp_e) Numero de individuos que no son elite
K=zeros(numparnumparn)
Generaci6n de la poblacion inicial
i=l
while ilt=h
Min(i)=minii
Max (i ) =maxi i
i=i+1
end
NPob=zeros(hnumpar)
Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros
estan en el rectangulo seleccionado
Ciclo evolutivo
i=l
while ilt=n
j=l
while jlt=h
c=Pob (j)
f(ji)=fobj(c)
j=j+1
end
[a b] =sort (f ( i) )
mejorindi)=Pob(b(l))
64
Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango
Los I
modifica
NPob (11 El rri
i indi
I j=l I
I
s=cov(
K J I
while
diferi I
j=j+11 J
end I J
NPob I Est
reloj 1
randi
NPOb
Pob=I
i=i~
end I I
sol=Pob (i
genera I
fbest=f I
Ao2o functil Prog~
j de 01
I I Ii
nci6n objetivo
ducir los
Inc son elite
I[
1
I
I
1 -
Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango
mejorf(i)=f(b(I)i)
Los mejores individuos pasan a la siguiente generaci6n
modificandose
NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )
El mejor individuo de la generaci6n i es NPob(I) Los demas
individuos se deben modificar para parecerse un poco mas a el
j=l
S=cov(Pob) Matriz de covarianzas de la poblaci6n actual
K ( i) =S
while jlt=round(hp_e)
diferencias (j ) =e (S (NPob (1 ) -NPob (j )))
j=j+l
end
NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias
Esta es la elite
reloj=clock
randn(state reloj(6))
NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)
Pob=NPob
i=i+l
end
sol=Pob(l ) La soluci6n es el mejor individuo de la ultima
generaci6n
fbest=f (b (1) n)
A2 C6digo para simular un proceso ASVI
function [y)=svl(nsimnburninparzu)
Programa para simular un modele de volatilidad estocastica
de orden 1
65
Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n numero de observaciones a simular
par vector de parametros
z es una sucesion iidN(Ol)
u es una sucesion iidN(Ol)
La parametrizaci6n del modelo es
y(t)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
Para que el modelo sea estacionario se requiere 0ltpar(2)lt1
Y par (3raquo0
n=nsim+nburnin
beta=exp(par(2raquo(1+exp(par(2raquo)i
mu=par(l)(l-beta)
mu=par(1)(1-par(2raquo)
w=zeros ( [1 n 1 )
w(l)=mu
i=2
while ilt=n
w(i)=par(1)+par(2w(i-1)+par(3)u(i)
i=i+1
end
y=exp(w2) Zi
y=y (nburnin+1 end)
A3 C6digo para estimarnn proceso ASVI utilizando el
metodo SMM
load serie2 Serie observada
W=eye(32) Matriz de covarianzas de los momentos
66
Nsim=50000
Nburn=100
NS=Nsim+Nb~
randn ( sta~
z=randn ( [1)I
randn ( sta~
u=randn([lJ I
mini=[-201 i
maxi=[211 I
Fun_obj= (I
[sol fbestI
i minaer (
I
I I I
A4 cJ I
i za i
i function I
I Funci6n
I est1maq
I paramet
I y(t)=e~
w(t)=pJI
(Tomadl
mp vel se estJ
par l I
Nsim I J
Nburn I
que sEI
I I
Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango
Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos
ASV(l) (Tornado de Andersen y Sorensen 1997)
n nurnero de observaciones a sirnu1ar
par vector de pararnetros~_ - -~
z es ~
requ~ere Oltpar(2)lt1_
I
I I II1Imiddot
1r1 utilizando el
I
I
lesus Antonio Hernandez Rivero y luan David Ospina Arango
Nsirn=50000 Numero
Nburn=100
Ns=Nsirn+Nburni
randn ( state 5)
z=randn([lNs])i t~J~
randn ( state 4) ~ ~ -~ -J
u=randn([lNs])
mini=[-2O-2O1]i
rnaxi=[21O2]i
Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)
[solfbestrnejorindmejorfK]=
minaer(Fun_objminimaxi500100O2)
A4 C6digo objetivo para estimar un proceso ASVI utilishy
zando el mCtodo SMM
function q=qsmm(mpparNsirnNburnminimaxiWzu)
Funcion para cornputar el valor de la funcion objetivo SMM para la
estimacion de un modelo de volatilidad estocastica SV(l)
parametrizado como
yt)=exp(w(t)2)z(t)
w(t)=par(1)+par(2)w(t-1)+par(3)u(t)
(Tornado de Andersen y Sorensen 1997)
mp vector de lx24 con los momentos muestrales de la serie que
se estima
par es e1 vector de parametros
Nsim es 1a longitud de 1a serie que se simula
Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada
que se deshecha de rnanera que se simu1a unaserie y de longitud
67
Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)
W es matriz de ponderacion
u y z soOn dos suceciones iid de media cero varianza 1 e
independientes entre si
Los momentos 32 momentos utilizados son
Recomendados por por Jacquier Polson y Rossi (1994)
para el caso ASVI con rho=O
E (abs (y (t)) )
E(y(t)2)
E(abs(y(t)3))
E(y(t)4)
E(abs(y(t)y(t-j))) j=l lO
E(y(t)2y(t-j)2) j=I bull lO
Recomendados por Giraldo y Lopera (2007)
E(abs(y(t))y(t-l))
E(abs(y(t))y(t-1)middot2)
E(y(t)middot6)
E(y(t) A2y(t) middot3)
E(abs(y(t))y(t-1)middot3)
E(y(t) middot4y(t-l)
E(y(t) 4y(t-1) 3)
E(abs(y(traquo)y(t-l)middot4)
Paso 1 Simulacion de la serie con el vector de parametros
candidato
ysim=simular_yt(parNsimNburnzu)
Paso 2 Calculo de los 32
simulada
mm=momentos2(ysim)
Condiciones de momento
g=mm-mpi
momentos muestrales de la serie
68
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
AS Codli
I bull Iserl1
1
Ifunctlon m=mltl
Programa PJ I
Los moment 0 E(abS(y(t))
i E(y(t)2) 1
I E(abS(y(t)~
E(y(t)4) I i
E(abs(y(t)y I
E(y(t)2y(t I
E(abS(y(t))i
E (abs (y (t) ) 1
E(y(t)6) II
E(y(t) 2y
E(abs(y(t))l
E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(
I E (abs (y (t) ) bull I
N=length(y)
m=zeros ( [132] ) ~
I m(1) =sum (abs (y))
m(2)=sUm(yA2)1
m(3)=sum(abs(Y1
I
-- -_-- _-
lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango
Irsim+NbUrn)
~dia cero varianza 1 e
s son son y Rossi (1994)
i
b IIII
~
de parametros
shy de 1a serie
c~ -
Funci6n de costa
AS C6digo para estimar 32 momentos muestrales de una
serie de tiempo
function m=momentos2(y)
Programa para ca1cu1ar 32 momentos de una serie de tiempo
Los moment os que se calculan son
E(abs(y(traquo)
E(y(t)2)
E(abs(y(t)A3raquo
E(y(t)4)
E(abs(y(t)y(t-jraquo) j=l 10
E(y(t)2y(t-j)2) j=1 10
E(abs(y(traquoy(t-1raquo
E (abs (y (t) ) y (t-1) bull A2)
E (y (t) 6)
E (y (t) 2 y (t) 3)
E (abs (y (traquo y (t-1) 3)
E(y(t) A4y(t-Iraquo
E(y(t) 4y(t-I) 3)
E (abs (y (traquo y (t-l) bull 4)
N=length(y)
m=zeros([132)
m(l)=sum(abs(yraquoN
m(2)=sum(y2)Nj
m(3)=sum(abs(y3raquoNj
69
---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos
m(4)=sum(ymiddot4)N
m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i
m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)
m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i
m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)
m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)
m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)
m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)
m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)
m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i
m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)
m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)
m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)
m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)
m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)
m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)
m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i
m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)
m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)
m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)
m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)
Hasta aqui son los momentos recomendados por Jacquier Polson
y Rossi (1994) para el caso ASVI con rho=O
Los momentos a continuaci6n los recomiendan Giraldo y Lopera
(2007) para el caso eon rho diferente de O
m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)
m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)
m(27)=sum(yA6)N
m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)
m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)
m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)
70
t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~
ll~middotT~middot
=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango
I -~
m(31)=sum(y(1N-l) fI
I m(32)=sum(abs(y(1N
I I
I
A 6 bullbull C0dIgO p~I
hfbrido I I 1
Estimaeion 1 globales uj modifiea la
I y varianza I
elear all Iet normrnd
ut = n~rmrnJ I
T = 6000 1
Inorm)
I nor
parametr1
alfa
I b 1-12
VOlatilidJ
b (1) ~ (1
simulac I
y simu]
mu = meal I
stdEstim
y = y - f
I I
----
--I -l EvoJutivos~d6n d~_pu~-~ shy
I
~ Ii
1 1
I
- i
Iquier Polson
do y Lopera
I I I
I
~
1
Jesus Antonio Hernandez Rivero y Juan David Ospina Arango
m(31)=sum(y(1N-I) A4y(2N) A31(N-I)
m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)
A6 Codigo para estimar un modelo ASVI utilizano AE
hlbrido
Estimacion emm as vI con ag y modificaciones no usa variables
globales Utiliza scores analiticos del modele auxiliar Se
modi fica la definicion de snp para que quede con media cero
y varianza uno
clear all
et normrnd(OlNl)i Serie de ruido para y_t
ut normrnd(OlNlli Serie de ruido para log (sigma_t)
T = 6000 Tamafio de las series simuladas
normrnd(OlTl)
normrnd(OlTl)i
parametros
A alfa = sr gamma ssqrt(1-r 21 s 03 r -08
b [-12 09 -024 018]
volatilidad = 000024
btl) (1-b(211log(volatilidad)i
simulacion
y simular-yt(bTet_Out_O)
mu meanly)
stdEstimate std(yl)
y = y - mUi
71
estimacion egarch(11)-snp(4) con ga hiprid
FunObj = (b) LLK_egareh_snp(byTstdEstimate)
numberOfVariables 8
optionsGA gaoptimset(PlotFcns gaplotbestfun
Plotlnterval 1 PoplnitRange [-5 5)
lb = [-100 0000000 -0999999 00000001 -01 -01
-01 -01]
ub = [100 09 0999999 1 01 01 01 01]
Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos
geneticos y con SQP
opt Hybrid = gaoptimset(optionsGAGenerations25
PlotlntervallHybridFcn (fmincon
optimset(OutputFcn fminuncOut)I
[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1
[]lbub []optHybrid)i
Esta grafica permite ver el proeeso de evoluci6n en la
estimaci6n del modele axuliar EGARCH-SNP con algoritmos
geneticos y SQP
figure(l)
hold oni
plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10
MarkerFaceColor C)i
hold offi
calcular los scores
parametros = Xhybrid
tic
scoresl egarch_snp_seores_k(parametrosyTstdEstimate)
toe
72
tic
scores2
toc
Generar I
de los W Newey~
W invw)i
FunObj2 = I numberOfVa
OptimiJ geneticol
optionsGA I Plotln
b_O = paraI
lb [b_O (j ub = [b_O (
I Run GA-Fl
optHybrid 1 Plotlnt
0ptimseJI
[Xhybrid n I
ga(FunObj~
Grafica j figure (1) I hold oni I
i plot3(Xhybi
I
Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --
con ga hibrido
T stdEst~mate)
gaplotbestfun
[-5 5])
00000001 -01 -01
01 01 01]
GARCH-SNP con algoritmos
~enerations25 m~ncon
)
IOfVariables [] [] [] ~ I
~evoluci6n en la
1 con algodtmo
I-c MarkerSize 10
1
TstdEstimate)
I
_
Jesus Antonio Hernandez Riveros y Juan David Ospina Arango
tic
scores2 egarch_snp_scores_a(parametrosyTstdEstimate)
toc
Generar la matriz de ponderaciones = matriz de varianzas
de los scores calculada por el metodo de newey-west
W NeweyWest(scoresl~3)
W inv (W)
FunObj2 = (b) funcion_objetivo(b N et ut W parametros)
numberOfVariables = 4
Optimizaci6n de la funci6n objetivo EMM con algoritmos
geneticos
optionsGA = gaoptimset(PlotFcns gaplotbestfun
Plot Interval 1 PopInitRange [-5 5] )
b_O = parametros(14)
Ib [b_O(l)-lO 0000000 -0999999 00000001]
ub [b_0(1)+100999999 0999999 b_0(4)+1]
Run GA-FMINUNC Hybrid MaxFunEvals 800
optHybrid = gaoptimset(optionsGAGenerations 25
PlotIntervallHybridFcn (fmincon
0ptimset(OutputFcnfminuncOut))
[XhybridFhybrid exit flag output population scores] = bullbullbull
ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)
Grafica de la soluci6n final
figure(l)
hold on
plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10
73
Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos
bullMarkerFaceColor c)
hold off
Optimizaci6n con EAMN
[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables
lb ub 20 40 02) i
[b parametros(l4) Xhybrid bestl
74
I
Bi
I
BANOi
lable
dingl
Confi
i
BROTO
kingp
DEMBSKI
DOORNli
de Trav3
i 1
DRTONM
gly unrell I
sity
FLEMING PI
survey C(
GALLANT j 657-681
GHYSELS E cevol 16 Ch
GILLI M Y P
zation Methol I i I
~o Algoritmos Evolutivos
con EAMN
unObj2numberOfVariables
I
~
I
I
-
~
Bibliografia
BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy
lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy
dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational
Conference on pp 603-608 Anchorage AK USA
BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy
king paper 02-54 (14) Universidad Carlos III de Madrid Espana
DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)
DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document
de Travail Nuffleld College University of Oxford
DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy
gly unrelated regressions model Technical report Department of Statistics Whasington Univershy
sity
FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a
survey Control Engineering Practice 10 1223-1241
GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12
657-681
GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy
cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands
GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy
zation Methods in Econometrics Elsevier Amsterdam
75
Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with
simulated annealing Journal ofEconometrics 60(1-2) 66-99
GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy
versity Press Oxford UK
HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford
HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy
trica 50 1029-1054
HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy
versity of Michigan
HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy
rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy
HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy
tions on Evoilltiollary Computation 3(4) 287-297
HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy
cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia
HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press
1deg edn
INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy
rison Mathematical and Computer Modelling 16(11)87-100
KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference
Oil Evolwionary Complltation IEEE Press
LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor
Evolutionary Computation Kluwer Academic Publishers Norwell MA USA
Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal
Optimization 19(2) 151-161
76
Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of
Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I
MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl
tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa
I llltiollary Compltation 5(3) 303-~ I
MUHLENBEIN H T MAHNIG Y )
hical Models in Evolutionary OptiJ I
MUHLENBElN H Y G PAASS (19J
butions 1 Binary Parameters da1
Parallel Problem Solving from Nal
I NOCEDAL J Y S WRIGHT (1999)
PELIKANM~ D GOLDBERG Y EI I
and Bayesian Networks (IIIiGAI
Illinois Genetic Algorithms Laboi
I PELIKAN M D GOLDBERG Y F
I probabilistic models Computati
I ROCKINGER M Y M SEMENOV
i characteristic functions FAME
RUDOLPH G (1996) Converger
Proceedings of the Third IEEE J
NJ IEEE Press I SPALL J C (2003) Introduction
Control John Wiley and Sons r I I
-~-
---~ ~
Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis
RS (1994) Global optimization of statistical functions with
ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy
mampmm Omd Uionity Pre Od
th Gmli Mhd Mom poundCooommiddot
Genetic Algorithms IlIiGAL Report 97005 Unishy
g Linkage dans Foundations ofGenetic Algoshy
l 1 Morgan Kaufmann San Francisco CA
compact genetic algorithm IEEE TransacshyII II II
~l~tiva dans Memorias 1 Taller Renovashy
ional de Colombia
s The Univ~rsity of Michigan Press
simulated reannealing a compashy
BEE International Conference
gorithms A New Tool for
liSA
JOllrnal oGlobal
j
_J
Iesus Antonio Hemandoz River y Juan David Ospina ArangO
MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of
Comptltational alld Graphical Statistics 12(2) 1-17
MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy
tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy
tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer
MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy
lutionary Complllation 5(3) 303-346
MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy
hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247
MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy
butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil
Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag
NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York
PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation
and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign
Illinois Genetic Algorithms Laboratory Urbana IL
PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using
probabilistic models Complttational Optimization and Applications 21(1)
ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical
characteristic functions FAME 150
RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans
Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway
NJ IEEE Press
SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and
Control John Wiley and Sons New York
77
Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos
TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the
Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398
VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos
Matematicos 11 53-60
WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm
WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85
--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy
chnology 43 817-831
--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific
Encyclopedia
WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with
GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy
ware 10
ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global
optimization Journal ofGlobal Optimization 28 17-43
ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New
York
78
111
Algd I
algo~
algor)
AlgOl i
Algor
ASVI I
I Comp
i
EAMr
EDAj
EGAR
EMM I
espacicI
Estrate
i Funci6i
I GMMi
GOldset I
Griewai
Iinkagej
I I
metodos I
con
de J
i I
Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________
j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--
wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos
Ion genetic algorithm
d Computing (4) 65-85
of Informatioll and Software Teshy
dans Van Nostrands Scientific 1
tion of ARMA Models with
- Journal of Statistical Softshy
Imiddot
r Iunction method for global II
( Spdbullbull Vorl N=
I
I
~-
~
Indice alfabetico
Algoritmo de aprendizaje incremental 37 multimodalidad 22
algoritmo de distribucion marginal multivariada Operaciones genelicas
38 Cruzamiento 28
algoritmo genetico compacto 38 Mutaci6n 29
Algoritmos Evolutivos 24 Replicaci6n 28
Algoritmos Geneticos 26
ASV15 Programaci6n Evolutiva 27
Rastrigin fund6n de 43
Rosenbrock fundon de 43
Computadon Evolutiva 25
EAMN39 ruleta32
EDA33
Schwefel funcion de 44 EGARCH6
Selecd6n31EMM89
Six-hump camel back fundon de 47 espado de Msqueda 19
SNP16Estrategias de Evolud6n 26
Fundon de Aptitud 24 30
GMM1O
Goldsetin-Price fundon de 46
Griewangk funci6n de 45
linkage problem 35
metodos de optimizacion heurlsticos 21
constructivos 22
de bUsqueda local 23
79
top related