racionalidad econom ica y¶ aprendizaje … · y en (1982a) trata sobre la racionalidad del...
TRANSCRIPT
R A C IO N A L ID A D E C O N ¶O M IC A Y
A P R E N D IZ A J E B A Y E S IA N O
F r a n c isc o V e n e g a s-M a r t¶³n e z ¤
R e su m e n
En este trabajo, bajo el enfoque Bayesiano, se estudia el proceso de aprendizaje de un
consumidor racional sobre su funci¶on de utilidad. Se introduce una herramienta nueva
en el an¶alisis de este tipo de problemas: Distribuciones derivadas de la optimizaci¶on de
medidas de informaci¶on, que pueden ser distribuciones de m¶³nima entrop¶³a cruzada Kull-
back (1956) o distribuciones de m¶axima entrop¶³a Jaynes (1957) . Dichas distribuciones
describen el comportamiento racional de los individuos cuando estos incorporan informa-
ci¶on adicional en su funci¶on de Utilidad (Individuos optimizadores de informaci¶on) . En el
desarrollo de este trabajo se presentan y discuten varios patrones de comportamiento en
cuanto al tipo de informaci¶on que los individuos obtienen a trav¶es del proceso de apren-
dizaje. Los patrones propuestos son los siguientes: Informaci¶on sobre media y varianza
(caso Normal) ; Informaci¶on sobre valores y niveles (caso Gamma con dos par¶ametros) ;
Informaci¶on sobre niveles y potencias (caso Gamma con tres par¶ametros) ; Informaci¶on
sobre cuantiles; Informaci¶on sobre valores, niveles y potencias (caso Weibull) . Se estudian
tambi¶en modelos de naturaleza multiparam¶etrica, en particular, se discute sobre los casos
exponencial y Gaussiano.
1 . In tro d u c c i¶o n
La teor¶³a cl¶asica de utilidad, parte de un postulado de racionalidad del individuo en el que:
(i) El individuo tiene informaci¶on completa sobre los bienes de consumo, activos, activi-
dades, etc. , que existen en el mercado, y sobre la satisfacci¶on que obtiene al combi-
narlos en diferentes proporciones.
¤ E S E -IP N .
1
(ii) Dicha informaci¶on est¶a contenida en su funci¶on de utilidad.
(iii) El individuo maximiza su utilidad someti¶endose a la restricci¶on que le imponen su
ingreso y los precios del mercado.
Este trabajo pretende modelar, bajo el enfoque Bayesiano1 , el proceso de aprendizaje
por el que el individuo pasa antes de llegar a los puntos (i) y (ii) , o por lo menos, estar lo
m¶as cerca posible de ellos.
A diferencia de los trabajos de White (1984) , Cohen y Axelrod (1984) , Cyert y De-
Groot (1980) , Pollak (1978) , Marschak (1978) y Pessemier (1978) sobre utilidad adaptat4a,
se introduce una herramienta nueva en el an¶alisis de este tipo problemas, distribuciones
der4adas de la optimizaci¶on de medidas de informaci¶on.
En el desarrollo de este trabajo se establece un nuevo postulado de racionalidad para
el individuo, comport¶andose ¶este como optimizador de medidas de informaci¶on cuando se
trata de incorporar informaci¶on adicional en su funci¶on de utilidad. A este respecto, Berger
(1985) ha se~nalado, que este comportamiento corresponde al comportamiento Bayesiano2 .
Los individuos aprenden de su funci¶on de utilidad a trav¶es de la experiencia3 y la de-
terminaci¶on de ¶esta es problema de decisiones bajo incertidumbre, en donde la informaci¶on
a p rio ri es demasiado importante para ser ignorada.
2 . S u p u e sto s b a sic o s d e l m o d e lo d e a p re n d iz a je
Los dos supuestos esenciales que manejaremos sobre la funci¶on de utilidad son:
(i) El individuo conoce la forma funcional de su funci¶on de utilidad, pero no est¶a seguro
de los valores de los par¶ametros que en ella aparecen.
1 L a m eto d o lo g¶³a B ay esia n a h a en co n tra d o u n ca m p o f¶ertil en teo r¶³a eco n ¶o m ica . P o r m en cio n a r a lg u n o s
tra b a jo s q u e h a n h ech o u so d e este en fo q u e, se en cu en tra n lo s sig u ien tes: en M o n o p o lio , N g u y en (1 9 8 4 ); en
T eo r¶³a M o n eta r¶³a , d e A lb a y M ¶a rq u ez (1 9 9 0 ); en E q u ilib rio G en era l, P resco tt y T ow n sen d (1 9 8 0 ) y A rrow
y G reen (1 9 7 3 ); en E x p ecta t4 a s R a cio n a les, T ow n sen d (1 9 7 8 ) y G ro ssm a n (1 9 7 5 ); en C u rva d e P h illip s,
L ew is (1 9 8 1 ); en E co n o m etr¶³a , Z elln er (1 9 7 1 ), (1 9 8 0 ) (1 9 8 4 ) y (1 9 8 5 ).2 E s im p o rta n te m en cio n a r a q u¶³ el tra b a jo d e C y ert y D eg ro o t (1 9 7 4 ), en el cu a l m u estra n q u e el
co m p o rta m ien to B ay esia n o g en era ex p ecta t4 a s ra cio n a les, siem p re y cu a n d o lo s ch o q u es a lea to rio s q u e
a p a recen en el m o d elo sea n ru id o b la n co G a u ssia n o .3 G ro ssm a n , K ih lstro m y M irm a n (1 9 6 7 ) y K ih lstro m , M irm a n y P o stlew a ite (1 9 8 4 ) h a n estu d ia d o la
a ctiv id a d n a tu ra l d el in d iv id u o p a ra b u sca r in fo rm a ci¶o n e in co rp o ra rla en su fu n ci¶o n d e u tilid a d . E x isten
ta m b i¶en tra b a jo s d e ca r¶a cter em p¶³rico , a l resp ecto , co n d u cid o s p o r B eck er, D eG ro o t y M a rsch a k (1 9 6 3 ).
2
(ii) El individuo asigna una distribuci¶on a p rio ri a los par¶ametros, esta distribuci¶on puede
incluso ser n o -in fo rm a tiva (ver Je®reys (1949) ) .
A continuaci¶on incorporamos en el modelo una serie de supuestos que, fundamental-
mente, tienen que ver con el comportamiento de los individuos.
(iii) En una primera etapa del proceso, el individuo aprende al consumir las cantidades
que maximizan su utilidad esperada a p rio ri sujeto a su restricci¶on presupuestal.
(iv ) Se supone que la informaci¶on ganada puede ser representada en t¶erminos de valores
esperados. Esta informaci¶on es empleada para obtener una distribuci¶on a po sterio ri,
v¶³a la optimizaci¶on de alguna medida de informaci¶on.
(v ) El proceso anterior puede ser recursivo, en el sentido de que si el individuo sigue
inseguro sobre los valores de los par¶ametros en su funci¶on de utilidad, una distribuci¶on
a po sterio ri se utiliza como una distribuci¶on a p rio ri y el proceso se inicia de nuevo.
Entre m¶as r¶apido el individuo pueda determinar los valores \exactos" o al menos \cercanos"
a los valores exactos, mayor ser¶a la utilidad que el individuo experimente en cada periodo.
Bajo los mismos supuestos se pueden estudiar problemas duales, en los cuales el in-
dividuo aprende al consumir las cantidades que minimizan cierta funci¶on de gasto sujeto
a restricciones que comprenden probabilidades sobre el nivel deseado de utilidad. En
cualquier caso, problema primales o duales, estos siempre pueden ser planteados como
problemas de inversi¶on, en los que el consumo es considerado inversi¶on en informaci¶on.
3 . D istrib u c io n e s d e riv a d a s d e m e d id a s d e in fo rm a -c i¶o n
El uso de medidas de informaci¶on en teor¶³a econ¶omica no es nuevo, este tiene su origen en
Theil (1967) , en sus estudios, la entrop¶³a 4 es vista como una medida de la distribuci¶on del
ingreso o como una medida de la concentraci¶on industrial (participaci¶on de las empresas
4 L a p a la b ra \ en tro p¶³a " es in tro d u cid a p o r C la siu s (1 8 5 0 ) co m o co n cep to term o d in ¶a m ico (co m o u n a
m ed id a d e d eso rd en d e u n sistem a f¶³sico ). L a in terp reta ci¶o n p ro b a b ilista d el co n cep to en M ¶eca n ica es-
ta d¶³stica se a trib u y e a B o ltzm a n n (1 8 7 7 a ) y (1 8 7 7 b ). S in em b a rg o la rela ci¶o n ex p l¶³cita en tre en tro p¶³a y
p ro b a b ilid a d se d eb e a P la n k (1 9 0 4 ). S h a n n o n y W eav er (1 9 4 8 ) crea n la s b a ses d e la teo r¶³a d e in fo rm a ci¶o n
a l rein terp reta r el co n cep to p a ra estu d ia r p ro b lem a s d e tra n sm isi¶o n d e d a to s. A s¶³ p u es, el n o m b re d e
en tro p¶³a , en n u estro co n tex to , se d eb e a ra zo n es m era m en te h ist¶o rica s, y la in terp reta ci¶o n co m o m ed id a
d e in fo rm a ci¶o n ro m p e co n el o rig en d e co n cep to f¶³sico .
3
en la demanda total) . Aplicaciones m¶as recientes se encuentran Kapur y Shiu (1981) en
la determinaci¶on de pol¶³ticas ¯scales que hagan m¶as equitativa la distribuci¶on del ingreso.
La justi¯caci¶on del uso de distribuciones que optimizan medidas de informaci¶on como
parte de un m¶etodo \racional" de inferencia, se encuentra en Shore y Johnson (1980) y
(1981) , Bernardo (1979) , Berger (1985) Jaynes (1982) , (1982a) y (1988) Zellner (1990) .
Cabe destacar que Jaynes en (1982) trata sobre como usar la entrop¶³a en teor¶³a econ¶omica
y en (1982a) trata sobre la racionalidad del m¶etodo de m¶axima entrop¶³a.
Las distribuciones derivadas a trav¶es de la optimizaci¶on de medidas de informaci¶on,
que vamos a estudiar, pueden ser de m¶³nima entrop¶³a cruzada 5 (Kullback (1956) ) , de
m¶axima entrop¶³a 6 (Jaynes (1957) ) .
En la literatura existen otras distribuciones derivadas de la optimizaci¶on de otras
medidas de informaci¶on: Las distribuciones de referencia7 (Bernardo (1979) ) y las dis-
tribuciones de Zellner8 (1971) , (1977) , (1986) y (1991) .
En t¶erminos generales, una medida de informaci¶on es una medida de la cantidad de
aprendizaje entre probabilidades a p rio ri y probabilidades a po sterio ri. Los siguientes dos
principios son fundamentales en el desarrollo de este trabajo:
(i) El principio de m¶³nima entrop¶³a cruzada establece que cuando hay un estimador a
p rio ri de una densidad e informaci¶on adicional en t¶erminos de valores esperados,
se deber¶³a tomar como un estimador a po sterio ri aquella densidad que minimice la
entrop¶³a cruzada con la a p rio ri y que sea compatible con la informaci¶on adicional.
(ii) El principio de m¶axima entrop¶³a establece que entre todas las distribuciones que sean
compatibles con informaci¶on adicional dada en t¶erminos de valores esperados, y en
ausencia de una densidad a p rio ri, se deber¶³a tomar como estimador a po sterio ri
5 E l n o m b re d e en tro p¶³a cru za d a se d eb e a G o o d (1 9 6 0 ), este co n cep to h a recib id o o tro s n o m b res, en tre
ello s se m en cio n a n : D iv erg en cia d irecta o fu n ci¶o n d e d iscrim in a ci¶o n d e in fo rm a ci¶o n (K u llb a ck (1 9 5 9 )),
p eso d e la ev id en cia (G o o d (1 9 6 0 )), E n tro p¶³a rela tiva o n ¶u m ero d e K u llb a ck -L eib ler (W eh rl (1 9 7 8 )).6 L a s d istrib u cio n es d e m ¶³n im a en tro p¶³a cru za d a y d e m ¶a x im a en tro p¶³a co in cid en b a jo el su p u esto d e
d istrib u cio n es a p rio ri \ u n ifo rm es" .7 L a s d istrib u cio n es d e referen cia so n so lu cio n es d el p ro b lem a va ria cio n a l d e m a x im iza r la in fo rm a ci¶o n
d e L in d ley (1 9 5 6 ) so b re la cla se d e d istrib u cio n es a p rio ri co m p a tib les co n el co n o cim ien to in icia l q u e se
est¶a d isp u esto a a cep ta r.8 L a s d istrib u cio n es d el tip o Z elln er m a x im iza n la d iferen cia en tre la in fo rm a ci¶o n m ed ia a p rio ri en lo s
d a to s y la in fo rm a ci¶o n d e la d istrib u ci¶o n a p rio ri. V a le la p en a m en cio n a r a q u¶³ q u e, en g en era l, o b ten er
d istrib u cio n es d e Z elln er es m ¶a s f¶a cil q u e o b ten er d istrib u cio n es d e referen cia .
4
aquella que maximice la entrop¶³a.
4 . M a rc o te ¶o ric o d e l m o d e lo d e a p re n d iz a je
En esta secci¶on se estructura el marco te¶orico que integra los supuestos b¶asicos con el
comportamiento optimizador de medidas de informaci¶on.
4 .1 A p re n d iz a je c o n m ¶³n im a e n tro p ¶³a c ru z a d a
Suponga que, en una primera etapa (etapa 0) , el individuo decide invertir en consumo para
obtener informaci¶on adicional sobre los par¶ametros de su funci¶on de utilidad
U = U (q jμ );
en donde la forma funcional de U es conocida, q es un vector de bienes (en sentido gen¶erico)
y μ es un vector de par¶ametros, cuyos posibles valores pertenecen a un espacio parametral,
£.
Suponga adem¶as que el conocimiento inicial del individuo sobre los par¶ametros de su
funci¶on de utilidad est¶a representado por una distribuci¶on a p rio ri, p = p (μ ); μ 2 £.En lo que sigue, vamos a suponer tambi¶en que el individuo enfrenta una restricci¶on
presupuestal,
q 2 S 0 ;
en donde S 0 es el conjunto de posibilidades de consumo en la etapa 0.
En esta primera etapa, el individuo resuelve el problema
Maximizar E p [U (q jμ ) ] =Z£
U (q jμ ) p (μ ) d μ ; (4:1:1)
sujeto a q 2 S 0 ;
y aprende algo m¶as sobre μ al consumir las cantidades, q 0 (p ) , que maximizan el problema
(6.1 .1) .
Se supone que la informaci¶on ganada, la cual asociaremos a una distribuci¶on a po ste-
rio ri ¼ (μ ) , puede ser representada en t¶erminos de valores esperados comoZ£
a k (μ )¼ (μ ) d μ = ¹a k ; k = 1;2;:::;m ; (4:1:2)
5
en donde, por supuesto, las funciones a k ; k = 1;2;:::m y las constantes ¹a k ; k = 1;2;:::m
son todas conocidas.
En la siguiente etapa, etapa 1, el comportamiento racional que el individuo sigue para
determinar una distribuci¶on a po sterio ri, ¼ ¤ , que incorpore la informaci¶on ganada, (4.1 .2) ,
en su conocimiento inicial representado por p (μ ) , es el de minimizador de entrop¶³a cruzada.
Es decir, el individuo resuelve el problema9 :
Minimizar H (¼ ;p ) =
Z£
¼ (μ ) log¼ (μ )
p (μ )d μ ;
sujeto a
8>><>>:Z£
¼ (μ ) d μ = 1;Z£
a k (μ )¼ (μ )d μ = ¹a k ; k = 1;2;:::;m :
La condici¶on de primer orden (condici¶on necesaria) del problema anterior est¶a dada
por 8>>>>>>><>>>>>>>:
¼ ¤ (μ jq 0 (p ) ) = p (μ ) exp½¡ ¸ 0 ¡
mXk = 1
¸ k a k (μ )
¾;
1 ¡Z£
¼ ¤ (μ )d μ = 0;Z£
(¹a k ¡ a k (μ ) ) ¼ ¤ (μ )d μ = 0; k = 1;2;:::;m ;
(4:1:3)
donde ¸ 0 ;¸ 1 ;:::;¸ m , son los multiplicadores de Lagrange asociados a las restricciones.
Sustituyendo ¼ ¤ en las condiciones de primer orden restantes en (4.1 .3) , encontramos
que 8>><>>:0 = ¸ 0 ¡ log
½Z£
p (μ )Q mk = 1 e
¡ ¸ k a k (μ )d μ
¾;
0 =
Z£
[a k (μ ) ¡ ¹a k ] p (μ )Q mk = 1 e
¡ ¸ k a k (μ )d μ ; k = 1;2;:::;m ;
(4:1:4)
el cual es un sistema no lineal homog¶eneo en las variables ¸ 0 ;¸ 1 ;:::;¸ m .
Cuando la integral que de¯ne a ¸ 0 puede resolverse, entonces los dem¶as multiplicadores
pueden encontrarse a partir de las siguientes relaciones (ver Venegas-Mart¶³nez (1990a) )
@ ¸ 0
@ ¸ k= ¡ ¹a k ; k = 1;2;:::;m : (4:1:5)
9 E s im p o rta n te m en cio n a r q u e la en tro p¶³a cru za d a es u n a fu n ci¶o n n o n eg a tiva y estricta m en te c¶o n cava
co n resp ecto d el a rg u m en to ¼ .
6
Una vez resuelto el sistema (Suponemos que se cumplen la condicion de segundo
orden del problema variacional, a saber, la condici¶on de Legendre (ver Kamien y Schwartz
(1981) ) , el individuo vuelve a resolver, en la etapa 2, un problema de maximizaci¶on de
utilidad esperada
Maximizar E ¼ ¤ [U (q jμ ) ] =Z£
U (q jμ ) ¼ ¤ (μ jq 0 (p ) )d μ : (4:1:6)
sujeto a q 2 S 1 :
Suponemos que las decisiones del individuo no afectan a los par¶ametros que aparezcan en
las restricciones impuestas en S 0 o en S 1 (precios de mercado, ingresos, etc) .
El proceso anterior puede ser recursivo, en el sentido de que si el individuo sigue
inseguro sobre los valores de los par¶ametros en su funci¶on de utilidad, una distribuci¶on a
po sterio ri se utiliza como una distribuci¶on a p rio ri y el proceso se inicia de nuevo. Entre
m¶as r¶apido el individuo determine los valores verdaderos de los par¶ametros, mayor ser¶a la
utilidad que experimente en cada periodo.
A m a n era d e resu m en , se id en ti ca n 3 eta p a s fu n d a m en ta les en el m o d ela d o d el p ro ceso d e
a p ren d iza je:
(i) E n la eta p a 0 , el in d iv id u o resu elv e el p ro b lem a d e m a x im iza ci¶o n d e u tilid a d esp era d a
M a x im iza r E p [U (q jμ )]=R£U (q jμ )p (μ )d (μ ):
su jeto a q 2 S 0 ;
y a p ren d e a lg o m ¶a s so b re μ a l co n su m ir la s ca n tid a d es, q 0 (p ), q u e m a x im iza n la u tilid a d
esp era d a co n resp ecto d e p . L o a p ren d id o p u ed e ser rep resen ta d o p o rR£a k (μ )¼ (μ )d μ = ¹a k ; k = 1 ;2 ;:::;m :
(ii) E n la eta p a 2 , el in d iv id u o d eterm in a u n a d istrib u ci¶o n a po sterio ri, ¼ ¤ , a l reso lv er el
p ro b lem a d e m in im iza ci¶o n d e en tro p¶³a cru za d a
M in im iza r H (¼ ;p )=R£¼ (μ ) lo g
¼ (μ)p (μ)
d μ ;
su jeto a
(R£¼ (μ )d μ = 1;R
£a k (μ )¼ (μ )d μ = ¹a k ; k = 1 ;2 ;:::;m :
7
(iii) E n la eta p a 2 , el in d iv id u o v u elv e a reso lv er u n p ro b lem a d e m a x im iza ci¶o n d e u tilid a d
esp era d a
M a x im iza r E ¼ ¤ [U (q jμ )]=R£U (q jμ )¼ ¤ (μ jq 0 (p ))d μ ;
su jeto a q 2 S 1 :
4 .2 A p re n d iz a je c o n m ¶a x im a e n tr o p ¶³a
Si en la etapa 0, no existe una distribuci¶on a p rio ri, p = p (μ ) ; μ 2 £, que describa elconocimiento adicional del individuo, entonces el individuo consume cualquier q 0 2 S 0para obtener informaci¶on adicional sobre μ . Se supone que esta informaci¶on puede ser
expresada en t¶erminos de valores esperados, digamosZ£
a k (μ )¼ (μ ) d μ = ¹a k ; k = 1;2;:::;m ; (4:2:1)
En la etapa 1, el comportamiento racional que el individuo sigue para determinar
una distribuci¶on a po sterio ri, ¼ (μ ) , que incorpore la informaci¶on ganada, (4.2.1) , es el de
maximizador de entrop¶³a. Es decir, el individuo resuelve el problema:
Maximizar H (¼ ) = ¡Z£
¼ (μ ) log ¼ (μ )d μ ;
sujeto a
8>><>>:Z£
¼ (μ )d μ = 1;Z£
a k (μ ) ¼ (μ )d μ = ¹a k ; k = 1;2;:::;m :
La condici¶on de primer orden del problema anterior est¶a dada por
8>>>>>>><>>>>>>>:
¼ ¤ (μ jq 0 ) = exp½¸ 0 +
mXk = 1
¸ k a k (μ )
¾;
1 ¡Z£
¼ ¤ (μ ) d μ = 0;Z£
[¹a k ¡ a k (μ ) ] ¼ ¤ (μ )d μ = 0; k = 1;2;:::;m ;
(4:2:2)
donde ¸ 0 ;¸ 1 ;:::;¸ m , son los multiplicadores de Lagrange asociados a las restricciones.
8
Sustituyendo ¼ ¤ en las condiciones de primer orden restantes en (4.2.2) , encontramos
que 8>><>>:0 = ¸ 0 + log
½Z£
Q mk = 1 e
¸ k a k (μ )d μ
¾;
0 =
Z£
[a k (μ ) ¡ ¹a k ] p (μ )Q sk = 1 e
¸ k a k (μ )d μ ; k = 1;2;:::;m ;
(4:2:3)
el cual es un sistema no lineal homog¶eneo en las variables ¸ 0 ;¸ 1 ;:::;¸ m .
De nuevo, cuando la integral que de¯ne a ¸ 0 puede resolverse, entonces los dem¶as
multiplicadores pueden encontrarse a partir de las relaciones
@ ¸ 0
@ ¸ k= ¡ ¹a k ; k = 1;2;:::;m : (4:2:4)
Una vez resuelto el sistema, el individuo resuelve, en la etapa 2, el problema
Maximizar E ¼ ¤ [U (q jμ ) ] =Z£
U (q jμ )¼ ¤ (μ jq 0 )d μ (4:2:5)
sujeto a q 2 S 1 :
Al igual que antes, suponemos que las decisiones del individuo no afectan a los par¶ametros
que aparecen en S 0 o en S 1 .
E n resu m en , se id en ti ca n 3 eta p a s fu n d a m en ta les en el m o d ela d o d el p ro ceso d e a p ren d iza je
co n m ¶a x im a en tro p¶³a :
(i) E n la eta p a 0 , el in d iv id u o co n su m e cu a lq u ier q 0 2 S 0 p a ra a p ren d er a lg o m ¶a s so b re μ ,
d ig a m o s R£a k (μ )¼ (μ )d μ = ¹a k ; k = 1 ;2 ;:::;m :
(ii) E n la eta p a 1 , el in d iv id u o d eterm in a u n a d istrib u ci¶o n a po sterio ri, ¼ ¤ , a l reso lv er el
p ro b lem a d e m a x im iza ci¶o n d e en tro p¶³a
M a x im iza r H (¼ )= ¡R£¼ (μ ) lo g
¼ (μ)p (μ)
d μ ;
su jeto a
(R£¼ (μ )d μ = 1;R
£a k (μ )¼ (μ )d μ = ¹a k ; k = 1 ;2 ;:::;m :
(iii) E n la eta p a 2 , el in d iv id u o v u elv e a reso lv er u n p ro b lem a d e m a x im iza ci¶o n d e u tilid a d
esp era d a
M a x im iza r E ¼ ¤ [U (q jμ )]=R£U (q jμ )¼ ¤ (μ jq 0 )d μ ;
9
su jeto a q 2 S 1 :
E l p ro ceso a n terio r, co m o a n tes, p u ed e ser recu rsiv o .
Es importante guardar en mente el siguiente resultado ¶util en aplicaciones. Sea ¼ ¤ la
soluci¶on de m¶³nima entrop¶³a cruzada o de m¶axima entrop¶³a, y suponga que las funciones
a k (μ ) , k = 0;1;2;:::;m , donde a 0 (μ ) ´ 1; son continuas y linealmente independientes conZ£
a |(μ )a `(μ )¼¤ (μ ) d μ < 1 ; para toda |;` = 0;1;2;:::;m :
Entonces la soluci¶on es ¶unica (ver Venegas-Mart¶³nez (1990) ) .
5 . P a tro n e s d e c o m p o rta m ie n to
A continuaci¶on se presentan y discuten varios patrones de comportamiento en cuanto al
tipo de informaci¶on adicional que los individuos obtienen a trav¶es del proceso de apren-
dizaje.
5 .1 In fo rm a c i¶o n a d ic io n a l so b re m e d ia y v a ria n z a (c a so G a u -
ssia n o )
Suponga que en un principio, el individuo no tiene informaci¶on inicial sobre los va-
lores de los par¶ametros de su funci¶on de utilidad. Entonces una distribuci¶on a p rio ri
que re°eja total ignorancia, podr¶³a tomarse como p (μ ) = co n st:; μ 2 (¡ 1 ;1 ) (Noteque esta distribuci¶on es impropia, en el sentido de que
R1¡ 1 p (μ )d μ = 1 ) . Bajo este
esquema, en general, obtenemos queR1¡ 1 U (q jμ )p (μ )d μ no est¶a de¯nida a menos que se
hagan supuestos adicionales (muy restrictivos) sobre la funci¶on de utilidad. Note que si
U ((q1 ;q2 )jμ ) = μ log q1 + (1 ¡ μ ) log q2 , entonces E p [U (q jμ ) ] no est¶a de¯nida. En este casoel individuo consume cualquier q 2 S 0 para obtener informaci¶on adicional sobre μ .
Suponga que el individuo despu¶es de consumir, cualquier cantidad q 0 2 S 0 , ha
obtenido la siguiente informaci¶on adicional sobre la media y varianza de μ 2 (¡ 1 ;1 ) ,de tal forma que la distribuci¶on a po sterio ri tiene que satisfacer8>><>>:
Z 1
¡ 1μ ¼ (μ ) d μ = ¹ 0 ;Z 1
¡ 1(μ ¡ ¹ 0 ) 2 ¼ (μ ) d μ = ¾ 20 :
10
En la etapa 1, el individuo resuelve el problema
Maximizar H (¼ ) = ¡Z 1
1¼ (μ ) log ¼ (μ )d μ ;
sujeto a
8>>>>>>><>>>>>>>:
Z 1
¡ 1¼ (μ ) d μ = 1;Z 1
¡ 1μ ¼ (μ ) d μ = ¹ 0 ;Z 1
¡ 1(μ ¡ ¹ 0 ) 2 ¼ (μ ) d μ = ¾ 20 :
Sin p¶erdida de generalidad, vamos a de¯nir el siguiente cambio de variable
' = μ ¡ ¹ 0 : (5:1:1)
En este caso el problema de m¶axima entrop¶³a se simpli¯ca un poco, ya que ahora ¼ es una
funci¶on par, con lo cual las restricciones se transforman en:8>><>>:Z 1
1¼ (' )d ' = 1;Z 1
¡ 1' 2 ¼ (' ) d ' = ¾ 20 :
En este caso el Lagrangiano del problema variacional de m¶axima entrop¶³a est¶a dado por
L (¼ ;¸ 0 ;¸ 1 ) = ¡ ¼ (' ) log ¼ (' ) + ¸ 0 ¼ (' ) + ¸ 1 ' 2 ¼ (' ); (5:1:1)
donde ¸ 0 y ¸ 1 son los multiplicadores de Lagrange asociados a las restricciones. La ecuaci¶on
de Euler-Lagrange @ L@ ¼ j¼ = ¼ ¤ = 0 implica que
¡ 1 ¡ log ¼ ¤ (' jq 0 ) + ¸ 0 + ' 2 ¸ 1 = 0; (24)
equivalentemente
¼ ¤ (' jq 0 ) = ° e ¸ 1 '2
;
donde ° = e ¸ 0 ¡ 1 . Los valores de ° y ¸ 1 son obtenidos a partir de las restricciones.
Claramente, ° > 0. Note tambi¶en que ¸ 1 < 0, ya que en caso contrarioZ 1
¡ 1° e ¸ 1 '
2
d ' > 1 :
11
Sea ¸ 1 = ¡ ± 2 , con ± > 0. Por lo tanto,
1 =
Z 1
¡ 1° e ¡ ±
2 ' 2 d ' =°p¼
±;
de donde ° = ±p¼. De la otra restricci¶on se obtiene que
¾ 20 =
Z 1
¡ 1
±p¼e ¡ ±
2 ' 2 d ' = 12 ±¡ 2 :
En consecuencia,
± 2 = 12 ¾
¡ 20
y
¼ ¤ (' jq 0 ) =1p2¼ ¾ 0
expn¡ 12
³'¾ 0
2o;
que corresponde a la distribuci¶on normal con media cero y varianza ¾ 20 . Aplicando la
transformaci¶on (5.1 .1) , encontramos que1 0 .
¼ ¤ (μ jq 0 ) =1p2¼ ¾ 0
expn¡ 12
³μ ¡ ¹ 0¾ 0
2o;
Suponga ahora que, en la etapa 0 de la segunda iteraci¶on, el individuo actua como
maximizador de utilidad esperada al resolver el problema
Maximizar ¹ 0 log q1 + (1 ¡ ¹ 0 ) log q2 ;
sujeto a (q1 ;q2 ) 2 S 1
y aprende algo m¶as sobre μ al consumir las cantidades, q 1 2 S 1 , que maximizan la utilidadesperada con respecto de ¼ ¤ . Suponga que ahora aprende que8>><>>:
Z 1
¡ 1μ ¼ (μ ) d μ = ¹ 1 ;Z 1
¡ 1(μ ¡ ¹ 1 ) 2 ¼ (μ ) d μ = ¾ 21 ;
donde ¾ 1 · ¾ 0 .
1 0 L a en tro p¶³a eva lu a d a en el ¶o p tim o sa tisfa ce H (¼ ¤ (μ jq 0 ))= lo g (p2 ¼ e¾ 20 ), lo cu a l es in d ep en d ien te d e
¹ 0 . N o te ta m b i¶en q u e H [¼ ¤ (μ jq 0 )]> 0 , si ¾ > 1 =p2 ¼ e.
12
Despu¶es de un cambio de variable como el de (5.1 .1) , el individuo resuelve el problema
de m¶³nima de entrop¶³a cruzada
Minimizar H (¼ ;¼ ¤ ) =
Z 1
¡ 1¼ (' ) log
¼ (' )
¼ ¤ (' jq 0 )d ' ;
sujeto a
8>><>>:Z 1
1¼ (' )d ' = 1;Z 1
¡ 1' 2 ¼ (' ) d ' = ¾ 21 :
En consecuencia, existen multiplicadores ¸ 0 y ¸ 1 tales que
¼ ¤ ¤ (' jq 1 (¼ ¤ ) ) = ¼ ¤ (' jq 0 )e ¡ ¸ 0 ¡ ¸ 1 '2
:
Haciendo uso de la primera restricci¶on, encontramos que
e ¡ ¸ 0 =q1 + 2¾ 20 ¸ 1 : (5:1:2) :
Por otro lado, al considerar la restricci¶on restante, encontramos que
¾ 21 =
Z 1
¡ 1' 2
s1 + 2¾ 20 ¸ 12¼ ¾ 20
exp
(¡"1 + 2¾ 20 ¸ 1
¾ 20
#' 2
)d ' =
¾ 201 + 2¾ 20 ¸ 1
;
con lo cual
¸ 1 =¾ 20 ¡ ¾ 212¾ 20 ¾
21
;
sustituyendo este valor en (5.1 .2) se sigue que
e ¡ ¸ 0 =¾ 0
¾ 1:
Por lo tanto,
¼ ¤ ¤ (' jq 1 (¼ ¤ ) ) =1p2¼ ¾ 1
expn¡ 12
³'¾ 1
2o:
En consecuencia, utilizando una transformaci¶on similar a la de (5.1 .1) , tenemos que
¼ ¤ ¤ (μ jq 1 (¼ ¤ ) ) =1p2¼ ¾ 1
expn¡ 12
³μ ¡ ¹ 1¾ 1
2o;
que es de nuevo una distribuci¶on Gaussiana con media ¹ 1 y varianza ¾21 . Obs¶ervese que
en esta nueva iteraci¶on se ha borrado la informaci¶on anterior proporcionada por ¹ 0 y ¾ 0 ,
y en su lugar est¶a la nueva informaci¶on determinada por ¹ 1 y ¾ 1 .
13
Al continuar el proceso, el individuo obtiene una sucesi¶on de ¾ k ; k = 1;2;:::, decre-
ciente y acotada inferiormente por cero,
¾ 0 ¸ ¾ 1 ¸ ¾ 2 ¸ ¢¢¢ ¸ 0;
la cual converge. Si adem¶as pedimos como condiciones de consistencia sobre el compor-
tamiento del individuo que:
(i) limk ! 1 ¾ k = 0, y que
(ii) conforme k ! 1 , ¹ k ¡ 3¾ k y ¹ k + 3¾ k tomen valores en el intervalo (0;1) .
Entonces de (i) , se ir¶a determinando un ¶unico valor de ¹ . De la segunda condici¶on de
consistencia, al ir avanzando el proceso de aprendizaje, se estar¶a forzando a la distribuci¶on
a concentrarse en el intervalo (0;1) , con lo cual dicho valor de ¹ satisface 0 < ¹ < 1 . Por
lo tanto, en el l¶³mite, la utilidad marginal es positiva y decreciente1 1 .
5 .2 In fo rm a c i¶o n a d ic io n a l e n v a lo re s y n iv e le s (c a so g a m m a
c o n d o s p a r¶a m e tro s)
Suponga que el individuo no tiene informaci¶on inicial sobre los valores de los par¶ame-
tros de su funci¶on de utilidad, excepto que estos son positivos. Entonces una distribuci¶on
a p rio ri que re°eje total ignorancia, excepto que μ > 0, podr¶³a tomarse, de acuerdo con
la regla de Je®reys (1949) , como p (μ ) = μ ¡ 1 ; μ 2 (0;1 ) . Note que esta distribuci¶on esimpropia, en el sentido de que
R10p (μ ) d μ = 1 ) .
1 1 A l p rin cip io d e este a n ¶a lisis, en fo rm a a ltern a tiva , se p u d o h a b er co n sid era d o £ = (0 ;1 ) y p (μ ) u n ifo rm e,
o b ien d e a cu erd o co n la reg la d e J e® rey s (1 9 4 9 ), p (μ )= μ ¡12 (1 ¡ μ )¡
12 . S i μ 2 (0 ;1 ), en to n ces la fu n ci¶o n d e
u tilid a d U (q1 ;q2 jμ )= μ lo g q1 + (1 ¡ μ ) lo g q2 sa tisfa ce a u to m ¶a tica m en te q u e @ U@ qi
> 0 y @ 2 U
@ q2i
< 0 . E n la eta p a 0 d e
la p rim era itera ci¶o n , si p (μ )= 1 ; μ 2 (0 ;1 ), E p [U (q jμ )]< 1 . E n la eta p a 1 d e la p rim era itera ci¶o n el in d iv id u o
resu elv e el p ro b lem a :
M a x im iza r H (¼ )= ¡R1
0¼ (μ ) lo g ¼ (μ )d μ ;
su jeto a
8><>:R1
0¼ (μ )d μ = 1 ;R1
0μ ¼ (μ )d μ = ¹ 0 ;R
1
0(μ ¡ ¹ 0 )2 ¼ (μ )d μ = ¾ 20 :
L a so lu ci¶o n , ¼ ¤ , es m u y sim ila r en fo rm a , a u n a d istrib u ci¶o n n o rm a l co n m ed ia ¹ 1 q u e ca si n o tien e co la s
fu era d el in terva lo (0 ;1 ).
14
Suponga que U ((q1 ;q2 )jμ ) = μ log q1 + (1 ¡ μ ) log q2 , entonces E p [U (q jμ ) ] no est¶ade¯nida. Suponga que el individuo despu¶es de consumir cualquier q 0 2 S 0 , ha obtenido lasiguiente informaci¶on adicional sobre μ y su nivel log μ cuando £ = (0;1 ) , de tal formaque la distribuci¶on a po sterio ri tiene que satisfacer
8>><>>:Z 1
0
μ ¼ (μ ) d μ = ® ¯ ¡ 1 ;Z 1
0
log μ ¼ (μ )d μ = Ã (® ) ¡ log ¯ ;
donde à es la funci¶on digamma (ver Gradshteyn (1980) ) . Entonces de las condiciones de
primer orden, (4.2.3) , se tiene que
¡ ¸ 0 = log½Z 1
0
μ ¸ 2 e ¸ 1 μ d μ
¾:
Para que esta integral sea ¯nita es necesario que ¸ 2 > ¡ 1 y ¸ 1 < 0, con lo cual
¸ 0 = (1 + ¸ 2 ) log(¡ ¸ 1 ) ¡ log ¡(1 + ¸ 2 )
y 8>><>>:@ ¸ 0
@ ¸ 1= (1 + ¸ 2 ) ¸
¡ 11 = ¡ ® ¯ ¡ 1 ;
@ ¸ 0
@ ¸ 2= log(¡ ¸ 1 ) ¡ Ã (1 + ¸ 2 ) = log ¯ ¡ Ã (® ):
Por lo tanto, ¸ 1 = ¡ ¯ y ¸ 2 = ® ¡ 1 , y se tiene que
¼ ¤ (μ jq 0 ) = exp©
0 + ¸ 1 μ + ¸ 2 log μª=(μ ¯ ) ® ¡ 1 ¯ e ¡ ¯ μ
¡(® ); μ > 0;
que es la distribuci¶on Gamma con par¶ametros ® y ¯ .
En la etapa 1 el individuo resuelve el problema:
Maximizar ® ¯ ¡ 1 log q1 + (1 ¡ ® ¯ ¡ 1 ) log q2 ;
sujeto a (q1 ;q2 ) 2 S 1 :
15
5 .3 In fo rm a c i¶o n a d ic io n a l e n n iv e le s y p o te n c ia s d e v a lo re s
(c a so g a m m a c o n tre s p a r¶a m e tro s)
Suponga, de nuevo, que la funci¶on de utilidad del individuo est¶a dada por
U ((q1 ;q2 )jμ ) = μ log q1 + (1 ¡ μ ) log q2 ;
y que existe total ignorancia sobre μ > 0. Suponga que en la etapa 0, el individuo ha
obtenido la siguiente informaci¶on, sobre μ , por consumir cualquier q 08>><>>:Z 1
0
log μ ¼ (μ )d μ = ± ¡ 1 [ Ã (® ) ¡ log ¯ ] ;Z 1
0
μ ± ¼ (μ ) d μ = ¯ ¡ 1 :
En la etapa 1, el individuo resuelve el problema
Maximizar H (¼ ) = ¡Z 1
0
¼ (μ ) log ¼ (μ )d μ ;
sujeto a 8>>>>>>><>>>>>>>:
Z 1
0
¼ (μ )d μ = 1;Z 1
0
log μ ¼ (μ )d μ = ± ¡ 1 [ Ã (® ) ¡ log ¯ ] ;Z 1
0
μ ± ¼ (μ ) d μ = ¯ ¡ 1 :
En este caso el Lagrangiano del problema variacional de m¶axima entrop¶³a est¶a dado por
L (¼ ;¸ 1 ;¸ 2 ) = ¡ ¼ log ¼ + ¸ 0 ¼ + ¸ 1 ¼ log μ + ¸ 2 μ± ;
donde ¸ 0 , ¸ 1 y ¸ 2 son los multiplicadores de Lagrange asociados a las restricciones. La
ecuaci¶on de Euler-Lagrange @ L@ ¼ j¼ = ¼ ¤ = 0, implica que
¡ 1 ¡ log ¼ ¤ (μ jq 0 ) + ¸ 0 + log μ ¸ 1 + μ ± ¸ 2 = 0; (5:3:1)
equivalentemente
¼ ¤ (μ jq 0 ) = ° e ¸ 1 lo g μ + ¸ 2 μ±
; (5:3:2)
donde ° = e ¸ 0 ¡ 1 .
16
En lugar de obtener los valores de ° , ¸ 1 y ¸ 2 a patir de las restricciones, vamos a usar
la propiedad de continuidad e independencia lineal de las funciones de \informaci¶on" 1 ,
log μ y μ ± en (0;1 ) , con lo cual sabemos que la soluci¶on es ¶unica.Considere la distribuci¶on Gamma de tres par¶ametros ® , ® ¯ y ± , y note que
f (μ ) = [¡(® ) ] ¡ 1 ± [® ¯ ] ® μ ± ® ¡ 1 e ¡ ® ¯ μ±
= exp©log[¡(® ) ¡ 1 ± (® ¯ ) ® ] + (± ® ¡ 1) log μ ¡ ® ¯ μ ±
ª: (5:3:3)
Si escribimos 8>><>>:¸ 0 ¡ 1 = log[¡(® ) ¡ 1 ± (® ¯ ) ® ] ;
¸ 1 = ® ± ¡ 1;
¸ 2 = ¡ ® ¯ :
y sustituimos en (5.3.2) , entonces obtendremos a (5.3.3) como soluci¶on ¶unica1 2 .
5 .4 In fo rm a c io n a d ic io n a l e n c u a n tile s
Suponga que un individuo tiene como informaci¶on inicial, que los valores de los par¶ametros
de su funci¶on de utilidad se encuentran en la regi¶on £ = (b1 ;bm + 1 ) , en donde el individuo
asigna ponderaciones sub jetivas ° 1 ;° 2 ;:::;° s ¸ 0 (P sk = 1 ° k = 1) de que el valor verdadero
del par¶ametro se encuentre en subregiones A k = (bk ;bk + 1 ] ; k = 1;2;:::;s ¡ 1 y A s =(bs ;bs+ 1 ) con b1 < b2 < ¢¢¢ < bs+ 1 ; s ¸ 2, las cuales constituyen una partici¶on de £ =
(b1 ;bs+ 1 ) : En este caso una distribuci¶on a p rio ri que representa este tipo de informaci¶on
inicial, est¶a dada por
p (μ ) =
mXk = 1
° k u¡ 1k IA k (μ ); μ 2 £; (5:4:1)
donde IA kson las funciones indicadoreas de los conjuntos A k y u k =
R£IA k (μ )d μ ; k =
1;2;:::;m .
Si el individuo despu¶es de consumir las cantidades que maximizan su utilidad esperada,
q 0 (p ) , sujeto a su restricci¶on presupuestal, obtiene como informaci¶on adicional cambios en
1 2 E l m ism o resu lta d o p u ed e ser a p lica d o a la d istrib u ci¶o n G a u ssia n a si 1 ¡ ¸ 0 = ¡ lo g (p2 ¼ ¾ 2 )¡ (¹ 2 = 2 ¾ 2 ),
¸ 1 = ¹ = ¾ 2 y ¸ 2 = ¡ 12 ¾
¡ 2 , y a q u e la s fu n cio n es 1 , μ y μ 2 so n co n tin u a s y lin ea lm en te in d ep en d ien tes en
(¡ 1 ;1 ):
17
sus ponderaciones sub jetivas de tal manera que ahoraZ£
IA k (μ )¼ (μ ) d μ = ¯ k > 0; k = 1;2;:::;m ;
mXk = 1
¯ k = 1: (5:4:2)
y el individuo actua como minimizador de entrop¶³a cruzada, las condiciones de primer
orden dadas en (4.1 .4) se transforman en8>><>>:0 = ¸ 0 ¡ log
½Z£
p (μ )Q sk = 1 e
¡ ¸ k IA k (μ )d μ
¾;
0 = ¸ 0 + ¸ k ¡ log½¯ ¡ 1k
Z£
p (μ ) IA k(μ )d μ
¾; k = 1;2;:::;s :
(5:4:3)
Si la integral que determina a ¸ 0 en la condici¶on anterior puede resolverse, entonces
los dem¶as multiplicadores pueden encontrarse a partir de las relaciones
@ ¸ 0
@ ¸ k= ¡ ¯ k ; k = 1;2;:::;m :
La distribuci¶on a po sterio ri de μ est¶a dada por
¼ ¤ (μ jq 0 (p ) ) =mXk = 1
¯ k u¡ 1k IA k (μ ); μ 2 £:
Analicemos, por un momento, qu¶e pasa cuando la distribuci¶on a p rio ri es uniforme
en (b1 ;b3 ) . Sean b1 = a ; a < b2 = c < b; b3 = b; ¯ 1 = ¯ y ¯ 2 = 1 ¡ ¯ , entonces
¸ 0 = logf (c ¡ a ) e ¡ ¸ 1 + (b ¡ c)e ¡ ¸ 2 g
y 8>>><>>>:@ ¸ 0
@ ¸ 1=
¡ (c ¡ a ) e ¡ ¸ 1(c ¡ a )e ¡ ¸ 1 + (b ¡ c) e ¡ ¸ 2
= ¡ ¯ ;
@ ¸ 0
@ ¸ 2=
¡ (b ¡ c) e ¡ ¸ 2(c ¡ a )e ¡ ¸ 1 + (b ¡ c) e ¡ ¸ 2
= ¡ (1 ¡ ¯ ):
Por lo tanto, ¸ 1 = log[(c ¡ a ) = ¯ ] ; ¸ 2 = log[(b ¡ c)= (1 ¡ ¯ ) ] , lo que conduce a
¼ ¤ (μ jq 0 (p ) ) =¯
c ¡ a I(a ;c]+1 ¡ ¯b ¡ c I(c;b):
Por ejemplo, si
U ((q1 ;q2 )jμ ) = μ log q1 + (1 ¡ μ ) log q2 ;
18
en la etapa 0, el individuo resolver¶³a el problema:
Maximizar U ((q1 ;q2 )jμ ) = ° (c + a
2) log q1 + (1 ¡ ° ) (
b + c
2) log q2 ;
sujeto a (q1 ;q2 ) 2 S 0 :
En la etapa 1, el individuo resuelve el problema:
Maximizar U ((q1 ;q2 )jμ ) = ¯ (c + a
2) log q1 + (1 ¡ ¯ ) (
b + c
2) log q2 ;
sujeto a (q1 ;q2 ) 2 S 1 :
Si S 0 = S 1 , al individuo le interesar¶³a saber el signo de
E ¼ ¤ [U (q jμ ) ] ¡ E p [u (q jμ ) ] = (¯ ¡ ° ) [( c+ a2 ) log q1 + (c+ a2 ) log q1 ]
a ¯n de conocer su cambio en utilidad1 3 .
En el caso general, cuando la distribuci¶on a p rio ri tiene la forma (5.4.1) , si se de¯ne
el cambio de variable (! 0 = e
¸ 0 ;
! k = e¡ ¸ k ; k = 1;2;:::;s :
Entonces − = f ! 0 ;! 1 ;:::;! s g satisface la siguiente condicion de primer orden expresada elsistema lineal homog¶eneo (ver Venegas-Mart¶³nez (1992) ) :0BBBB@
¡ 1 u 1 u 2 ::: u s¡ 1 v 1 0 ::: 0¡ 1 0 v 2 ::: 0...
......
. . ....
¡ 1 0 0 ::: v s
1CCCCA0BBBB@! 0! 1! 2...! s
1CCCCA =
1CCCCA ; (5:4:4)
en donde u k son tomadas como en (5.4.1) y v k = °¡ 1k u k ; k = 1;2;:::;s .
El determinante en (5.4.4) est¶a dado porμP sk = 1 ° k ¡ 1Q sk = 1 ° k
¶Q sk = 1 u k ;
1 3 A este resp ecto ex iste en la litera tu ra el co n cep to d e In e¯ cien cia -X q u e p u ed e ser m ed id a co m o
f E ¼ ¤ [U (q jμ )]¡ E p [u (q jμ )]g = E ¼ ¤ [U (q jμ )]. D ich o co n cep to se d eb e a L eib en stein (1 9 7 8 ).
19
lo que garantiza que existe una soluci¶on no trivial cuandoP sk = 1 ° k = 1. De hecho, en este
caso, la soluci¶on es −¤ = f1;v ¡ 11 ;v ¡ 12 ;:::;v ¡ 1s g , con lo cual
¼ ¤ (μ jq 0 (p ) ) =sX
k = 1
v ¡ 1k IA k(μ ):
Finalmente, se establecen las condiciones de convergencia del proceso de aprendizaje.
Suponga que U ((q1 ;q2 )jμ ) = μ log q1 + (1 ¡ μ ) log q2 y que £ = (0;1) a ¯n de que la utilidad
marginal sea positiva y decreciente.
Si en la iteraci¶on k el individuo asigna ponderaciones sub jetivas °(k )1 ;°
(k )2 ;:::;°
(k )s ¸ 0
(P s
i= 1 °(k )i = 1) de que el valor verdadero del par¶ametro se encuentre en subregiones A i =
(bi;bi+ 1 ] ; i = 1;2;:::;s ¡ 1 y A s = (bs ;bs+ 1 ) con 0 = b1 < b2 < ¢¢¢ < bs+ 1 = 1; s ¸ 2, vamosahora a pedir, como condiciones de consistencia sobre el comportamiento del individuo,
que:
(i) Conforme k ! 1 , se determine una ¶unica subregi¶on A ` en la que el correspondientepeso ¯
(k )` se aproxime a 1. En consecuencia, limk ! 1 ¯
(k )i = 0, para i 6= ` .
(ii) Una vez determinada la subregi¶on A ` de la condici¶on anterior, se procede, de nuevo,
a subdividir A ` en subregiones y a asignar pesos sub jetivos en cada subregi¶on. Se
itera una vez m¶as en el proceso de aprendizaje hasta determinar una ¶unica subregi¶on
A `| ½ A ` , en la cual ¯(k )`|
se aproxime a 1 cuando k ! 1 . El procedimiento anteriorse repite de tal forma que la longitud de cada subregi¶on con peso 1, se aproxime a 0.
(iii) Despu¶es de tomar la cerradura (topol¶ogica) , denotada con una barra, en cada uno de
los conjuntos obtenidos en el proceso anterior y notando que
¢¢¢ ½ ¹A `m |½ ¹A `| ½ ¹A ` ½ £;
el axioma de los intervalos cerrados anidados garantiza la existencia de un ¶unico punto
contenido en todos ellos.
5 .5 U n e je m p lo d e in fo rm a c i¶o n re d u n d a n te (c a so e x p o n e n c ia l)
Suponga que la funci¶on de utilidad del individuo est¶a dada, de nuevo, por
U ((q1 ;q2 )jμ ) = μ log q1 + (1 ¡ μ ) log q2 ; (5:5:1)
20
y que ¶este parte de total ignorancia sobre un par¶ametro μ > 0. En la etapa 0, el individuo
ha obtenido la siguiente informaci¶on, sobre μ , por consumir q 0 (p );Z 1
0
μ ¼ (μ )d μ = ¯ ¡ 1 :
En este caso el Lagrangiano del problema variacional de m¶axima entrop¶³a est¶a dado por
L (¼ ;¸ 1 ;¸ 2 ) = ¡ ¼ (μ ) log ¼ (μ ) + ¸ 0 ¼ (μ ) + ¸ 1 μ ¼ (μ ) ;
donde ¸ 0 y ¸ 1 son los multiplicadores de Lagrange asociados a las restricciones. La ecuaci¶on
de Euler-Lagrange @ L@ ¼ j¼ = ¼ ¤ = 0 implica que
¡ 1 ¡ log ¼ ¤ + ¸ 0 + μ ¸ 1 = 0;
equivalentemente
¼ ¤ (μ jq0 ) = ° e ¸ 1 μ ;
donde ° = e ¸ 0 ¡ 1 . Los valores de ° y ¸ 1 son obtenidos a patir de las restricciones. Clara-
mente, ° > 0, note tambi¶en que ¸ < 0, ya que en caso contrarioZ 1
0
° e ¸ 1 μ d μ > 1 :
Sea ¸ 1 = ¡ ± , con ± > 0. Por lo tanto,
1 =
Z 1
0
° e ¡ ± μ d μ =°
±;
de donde ° = ± = ¡ ¸ 1 . De la otra restricci¶on se obtiene que
¯ ¡ 1 =
Z 1
0
± μ e ¡ ± μ d μ = ± ¡ 1 :
En consecuencia, ± = ¯ y
¼ ¤ (μ jq0 ) = ¯ e ¡ ¯ μ ; μ > 0;
que corresponde a la distribuci¶on exponencial con par¶ametro ¯ . Note que H (¼ ¤ ) =
log(e= ¯ ) , y H (¼ ¤ ) > 0 cuando ¯ < e .
Suponga ahora que el individuo pasa a la etapa 2, en la cual resuelve el problema
Max E ¼ ¤ [U (q jμ ) ] =Z 1
0
U (q jμ ) ¼ ¤ (μ jq 0 (p ) ) d (μ ) = ¯ ¡ 1 log q1 + (1 ¡ ¯ ¡ 1 ) log q2 (5:5:2)
21
sujeto a (q1 ;q2 ) 2 S 1
y aprende algo m¶as al consumir las cantidades (q1 (¼¤ ) ;q2 (¼
¤ ) ) que maximizan el problema
variacional anterior. Ahora vamos a suponer que la informaci¶on adicional obtenida est¶a
dada por Z 1
0
logμ ¼ (μ )d μ = ¡ K ¡ log ¯ : (5:5:3)
El individuo resuelve ahora el problema
Maximizar H (¼ ) = ¡Z 1
0
¼ (μ ) log ¼ (μ ) d μ ;
sujeto a 8>>>>>>><>>>>>>>:
Z 1
0
¼ (μ )d μ = 1;Z 1
0
μ ¼ (μ )d μ = ¯ ¡ 1 ;Z 1
0
logμ ¼ (μ ) d μ = ¡ K ¡ log ¯ ;
donde K (¼ 0:5772) es la constante de Euler1 4 , entonces, al igual que antes, se puede veri-¯car que la distribuci¶on exponencial con par¶ametro ¯ es la soluci¶on del problema anterior.
Es claro que, la restricci¶on incorporada,R10logμ ¼ (μ ) d μ = ¡ K ¡ log ¯ , es informaci¶on redun-
dante, ya que no produce cambio alguno en ¼ ¤ . Se observa tambi¶en que el correspondiente
multiplicador de Lagrange es cero.
Otras restricciones que proporcionan informaci¶on redundante con correspondientes
multiplicadores iguales a cero, son, por ejemplo:8>>><>>>:Z 1
0
(logμ ) 2 ¼ (μ )d μ = ¼ 2
6 + (K + log¯ )2 ;Z 1
0
(logμ ) 3 ¼ (μ )d μ = ¡·(K + log¯ ) 3 + ¼ 2
2 (K + log ¯ ) +1Xm = 0
2(m + 1 )3 :
Por supuesto, la informaci¶on adicional obtenida al aplicar el procedimiento en forma
recursiva no es siempre redundante. Suponga, por ejemplo, que en lugar de (5.5.3) , la
informaci¶on que el individuo obtiene al consumir las cantidades que resuelven (5.5.2) esZ 1
0
log(μ )¼ (μ ) d μ = Ã (® ) ¡ log ® ¯ ; ® > 0;
1 4 P a ra m ¶a s in fo rm a ci¶o n so b re K v er G ra d sh tey n y R y zh ik (1 9 8 0 ).
22
entonces se puede demostrar f¶acilmente que ¼ ¤ ¤ es una distribuci¶on Gamma con par¶ame-
tros ® y ® ¯ , es decir
¼ ¤ ¤ (μ j(q1 (¼ ¤ ) ;q2 (¼ ¤ ) ) ) = [¡(® ) ] ¡ 1 [® ¯ ] ® ¡ 1 μ ® e ¡ ® ¯ μ ; μ > 0;
con lo cual la distribuci¶on que se obtiene a partir de la primera iteraci¶on del proceso de
aprendizaje queda modi¯cada en esta segunda iteraci¶on.
5 .6 In fo rm a c i¶o n a d ic io n a l e n n iv e le s, v a lo re s y p o te n c ia s (c a so
w e ib u ll)
Suponga que la funci¶on de utilidad del individuo coincide con la de la secci¶on anterior y
que ¶este parte de total ignorancia sobre un par¶ametro μ > 0. En la etapa 0, el individuo
ha obtenido la siguiente informaci¶on, sobre μ , por consumir q 0 (p );Z 1
0
μ ¼ (μ )d μ = ¯ ¡1® ¡(1 + ® ¡ 1 ) :
En la etapa 1, el individuo obtiene, como soluci¶on del problema de m¶axima entrop¶³a,
la siguiente distribuci¶on exponencial
¼ ¤ (μ jq0 ) =© ¡ 1
® ¡(1 + ® ¡ 1 )ª¡ 1
expn¡© ¡ 1
® ¡(1 + ® ¡ 1 )ª¡ 1
μo; μ > 0:
Suponga ahora que el individuo pasa a la etapa 1, en la cual vuelve a maximizar la
utilidad esperada con respecto ¼ ¤ y que la informaci¶on adicional obtenida est¶a dada porZ 1
0
logμ ¼ (μ )d μ = Ã [¡(1 + ® ¡ 1 ) ] ¡ ® ¡ 1 log ¯ : (5:6:1)
El individuo resuelve ahora el problema de m¶axima entrop¶³a sujeto a8>>>>>>><>>>>>>>:
Z 1
0
¼ (μ ) d μ = 1;Z 1
0
μ ¼ (μ )d μ = ¯ ¡1® ¡(1 + ® ¡ 1 ) ;Z 1
0
logμ ¼ (μ ) d μ = Ã [¡(1 + ® ¡ 1 ) ] ¡ ® ¡ 1 log ¯ :
Entonces la soluci¶on del problema variacional, ¼ ¤ ¤ (μ jq 0 (¼ ¤ ) ) , es la distribuci¶on Gammacon par¶ametros ¯
1® , y ¡(1 + ® ¡ 1 ) .
23
Vamos ahora a ver qu¶e pasa si lo que aprende el individuo al consumir las cantidades
(q1 (¼¤ );q2 (¼
¤ ) ) , en lugar de (5.6.1) es8>><>>:Z 1
0
μ ® ¼ (μ ) d μ = ¯ ¡ 1 ;Z 1
0
logμ ¼ (μ ) d μ = ¡ ® ¡ 1 K ¡ ® ¡ 1 log ¯ :
El individuo resuelve ahora el problema de m¶axima entrop¶³a sujeto a8>>>>>>>>>>><>>>>>>>>>>>:
Z 1
0
¼ (μ )d μ = 1;Z 1
0
μ ¼ (μ )d μ = ¯ ¡1® ¡(1 + ® ¡ 1 );Z 1
0
μ ® ¼ (μ ) d μ = ¯ ¡ 1 ;Z 1
0
logμ ¼ (μ ) d μ = ¡ ® ¡ 1 K ¡ ® ¡ 1 log ¯ :
Entonces la soluci¶on del problema variacional de m¶axima entrop¶³a, es la distribuci¶on
Weibull con par¶ametros ® y ¯ , es decir,
¼ ¤ ¤ (μ jq1 (¼ ¤ ) ) = ® ¯ μ ® ¡ 1 e ¡ ¯ μ®
; μ > 0:
Este ejemplo muestra la sensibilidad del modelo al tipo de informaci¶on ganada.
6 . A p re n d iz a je c o n m ¶³n im a e n tro p ¶³a c ru z a d a (c a som u ltiv a ria d o )
En esta secci¶on vamos a estudiar patrones de aprendizaje cuando el espacio parametral es
multidimensional, en particular, se analizan los casos exponencial y Gaussiano.
6 .1 C a so e x p o n e n c ia l
Sean f ¹a k g y f¹bk g dos conjuntos de n¶umeros positivos, cada uno con m elementos. Suponga
que la densidad exponencial multivariada
p (μ 1 ;μ 2 ;:::;μ m ) = p 1 (μ 1 ) p 1 (μ 2 ) ¢¢¢p m (μ m ) =1Q m
k = 1¹bkexp
n¡
mXk = 1
μ k¹bk
o; μ k > 0;
24
es la densidad a p rio ri del individuo. Claramente, el individuo est¶a suponiendo indepen-
dencia1 5 entre las μ k ; k = 1;2;:::;m : Suponga que despu¶es de maximizar la correspondiente
utilidad esperada (en la etapa 0) , el individuo aprende queZ 1
0
Z 1
0
¢¢¢Z 1
0
¼ (μ 1 ;μ 2 ;:::;μ m ) μ k d μ 1 d μ 2 ¢¢¢d μ m = ¹a k ; k = 1;2;:::;m :
Entonces, en la etapa 1 el individuo tiene que resolver el siguiente problema de m¶³nima
entrop¶³a cruzada
Minimizar H (¼ ;p ) =
Z 1
0
Z 1
0
¢¢¢Z 1
0
¼ (μ 1 ;μ 2 ;:::;μ m ) log¼ (μ 1 ;μ 2 ;:::;μ m )
p (μ 1 ;μ 2 ¢¢¢μ m )d μ 1 d μ 2 ¢¢¢d μ m ;
sujeto a
8>><>>:Z 1
0
Z 1
0
¢¢¢Z 1
0
¼ (μ 1 ;μ 2 ;:::;μ m )d μ 1 d μ 2 ¢¢¢d μ m = 1;Z 1
0
Z 1
0
¢¢¢Z 1
0
¼ (μ 1 ;μ 2 ;:::;μ m )μ k d μ 1 d μ 2 ¢¢¢d μ m = ¹a k ; k = 1;2;:::;m :
Pero, utilizando la hip¶otesis de independencia, se tiene que
¼ (μ 1 ;μ 2 ;:::;μ m ) = ¼ 1 (μ 1 )¼ 2 (μ 2 ) ¢¢¢¼ m (μ m )
y como
p (μ 1 ;μ 2 ;:::;μ m ) = p 1 (μ 1 ) p 2 (μ 2 ) ¢¢¢p m (μ m ) ;
es f¶acil veri¯car que
H (¼ 1 ¼ 2 ¢¢¢¼ m ;p 1 p 2 ¢¢¢p m ) = H (¼ 1 ;p 1 ) + H (¼ 2 ;p 2 ) + ¢¢¢+ H (¼ m ;p m )
y queZ 1
0
Z 1
0
¢¢¢Z 1
0
¼ (μ 1 ;μ 2 ;:::;μ m ) μ k d μ 1 d μ 2 ¢¢¢d μ m =Z 1
0
¼ k (μ k )μ k d μ k = ¹a k ; k = 1;2;:::;m :
1 5 E l a n ¶a lisis d el ca so m u ltiva ria d o d e va ria b les d ep en d ien tes se co m p lica u n p o co p o r la fo rm a fu n cio n a l
d e la d istrib u ci¶o n ,
1 ¡ F (μ1 ;μ2 ;:::;μ m )= ex p©¡P m
k = 1¹bk μ k ¡
P1· i< j· m
¹bij m a x (μ i;μ j )¡P1· i< j< k · m
¹bijk m a x (μ i;μj ;μ k )¡ ¢¢¢¡ ¹b12¢¢¢m m a x (μ 1 ;μ 2 ;:::;μ m )ª;
en cu y o ca so el in d iv id u o tien e q u e p ro p o rcio n a r co m o in fo rm a ci¶o n va lo res d e ¹bk , ¹bij , ¹bijk , etc.
25
Por lo tanto, el individuo, en lugar de resolver un problema con m variables, puede resolver,
en forma equivalente, los siguientes m problemas de solo una variable cada uno y todos
ellos id¶enticos, para k = 1;2;:::;m :
Minimizar H (¼ k ;p k ) =
Z 1
0
¼ k (μ k ) log¼ k (μ k )
p k (μ k )d μ k ;
sujeto a
8>><>>:Z 1
0
¼ k (μ k )d μ k = 1;Z 1
0
¼ k (μ k )μ k d μ k = ¹a k :
En consecuencia, existen constantes ¸ 0 y ¸ 1 tales que
¼ ¤ (μ k jq 0 (p ) ) = p k (μ k ) e ¡ ¸ 0 ¡ ¸ 1 μ k ;
utilizando la primera restricci¶on encontramos que
1 =
Z 1
0
1¹bkexp
©¡ μ k¹bk
ªexp
©¡ ¸ 0 ¡ ¸ 1 μ k
ªd μ k = e
¡ ¸ 0h 1
1 + ¹bk ¸ 1
i:
En consecuencia,
e ¡ ¸ 0 = 1 + ¹bk ¸ 1 : (V :1:1)
Tambi¶en al considerar la restricci¶on restante, encontramos que
¹a k =
Z 1
0
μ k
h ¹bk
1 + ¹bk ¸ 1
i¡ 1exp
n¡h ¹bk
1 + ¹bk ¸ 1
i¡ 1μ k
od μ k =
¹bk
1 + ¹bk ¸ 1;
con lo cual
¸ 1 =¹bk ¡ ¹a k¹a k ¹bk
;
sustituyendo este valor en (6.1 .1) se sigue que
e ¡ ¸ 0 =¹bk¹a k:
En consecuencia para cada k se tiene que
¼ ¤k (μ k jq 0 (p ) ) =1
¹a kexp
n¡ μ k
¹a k
o; μ k > 0:
Por lo tanto,
¼ ¤ (μ 1 ;μ 2 ;:::;μ m jq 0 (p ) ) =mYk = 1
¼ ¤k (μ k jq 0 (p ) ) =1Q m
k = 1 ¹a kexp
n¡
mXk = 1
μ k
¹a k
o; μ k > 0;
26
que es de nuevo una distribuci¶on exponencial multivariada de variables independientes.
Obs¶ervese que la informaci¶on proporcionada por las ¹bk ; k = 1;2;:::;m ; se ha borrado
totalmente en ¼ ¤ .
6 .2 C a so G a u ssia n o
El caso normal es sumamente importante en nuestro an¶alisis, especialmente en el contexto
de la secci¶on V.1 .
Sean f ¹a k g y f¹bk g dos colecciones de n¶umeros positivos, cada uno con m elementos.
Suponga ahora que la densidad Gaussiana multivariada
p (μ 1 ;μ 2 ;:::;μ m ) = p 1 (μ 1 )p 2 (μ 2 ) ¢¢¢p m (μ m ) =1
(2¼ )m2
hQ mk = 1
¹bk
i12
expn¡
mXk = 1
μ 2k¹bk
o;
es la densidad a p rio ri del individuo. Por simplicidad suponemos que el vector de medias
es cero. Claramente, el individuo est¶a, de nuevo, suponiendo independencia entre las
μ k ; k = 1;2;:::;m :
Como veremos despu¶es, el an¶alisis para el caso general (variables dependientes) es
esencialmente el mismo, s¶olo que el individuo tiene que proporcionar informaci¶on sobre las
correlaciones de las variables.
Suponga que despu¶es de maximizar la correspondiente utilidad esperada (en la etapa
0) , el individuo aprende queZ 1
¡ 1
Z 1
¡ 1¢¢¢Z 1
¡ 1¼ (μ 1 ;μ 2 ;:::;μ m ) μ
2k d μ 1 d μ 2 ¢¢¢d μ m = ¹a k ; k = 1;2;:::;m :
En la etapa 1 el individuo tiene que resolver el siguiente problema de m¶³nima entrop¶³a
cruzada
Minimizar H (¼ ;p ) =
Z 1
¡ 1
Z 1
¡ 1¢¢¢Z 1
¡ 1¼ (μ 1 ;μ 2 ;:::;μ m ) log
¼ (μ 1 ;μ 2 ;:::;μ m )
p (μ 1 ;μ 2 ¢¢¢μ m )d μ 1 d μ 2 ¢¢¢d μ m ;
sujeto a
8>><>>:Z 1
¡ 1
Z 1
¡ 1¢¢¢Z 1
¡ 1¼ (μ 1 ;μ 2 ;:::;μ m )d μ 1 d μ 2 ¢¢¢d μ m = 1;Z 1
¡ 1
Z 1
¡ 1¢¢¢Z 1
¡ 1¼ (μ 1 ;μ 2 ;:::;μ m )μ
2k d μ 1 d μ 2 ¢¢¢d μ m = ¹a k ; k = 1;2;:::;m :
27
Utilizando la hip¶otesis de independencia, el individuo en lugar de resolver un problema
con m variables, resuelve en forma equivalente, los siguientes m problemas de solo una
variable cada uno y todos ellos id¶enticos, para k = 1;2;:::;m :
Minimizar H (¼ k ;p k ) =
Z 1
¡ 1¼ k (μ k ) log
¼ k (μ k )
p k (μ k )d μ k ;
sujeto a
8>><>>:Z 1
¡ 1¼ k (μ k )d μ k = 1;Z 1
¡ 1¼ k (μ k )μ
2k d μ k = ¹a k :
En consecuencia, existen multiplicadores ¸ 0 y ¸ 1 tales que
¼ ¤ (μ k jq 0 (p ) ) = p k (μ k ) e ¡ ¸ 0 ¡ ¸ 1 μ2k :
Haciendo uso de la primera restricci¶on, encontramos que
e ¡ ¸ 0 =p1 + 2¹bk ¸ 1 : (6:2:1) :
Por otro lado, al considerar la restricci¶on restante, encontramos que
¹a k =
Z 1
¡ 1μ 2k
s1 + 2¹bk ¸ 1
2¼ ¹bkexp
(¡"1 + 2¹bk ¸ 1
¹bk
#μ 2k
)d μ k =
¹bk
1 + 2¹bk ¸ 1;
con lo cual
¸ 1 =¹bk ¡ ¹a k2¹a k ¹bk
;
sustituyendo este valor en (6.2.1) se sigue que
e ¡ ¸ 0 =
s¹bk¹a k:
En consecuencia para cada k se tiene que
¼ ¤k (μ k jq 0 (p ) ) =1p2¼ ¹a k
expn¡ 12
μ 2k¹a k
o; μ k > 0:
Por lo tanto,
¼ ¤ (μ 1 ;μ 2 ;:::;μ m jq 0 (p ) ) =mYk = 1
¼ ¤k (μ k jq 0 (p ) ) =1
(2¼ )m2
hQ mk = 1 ¹a k
i12
expn¡ 12
mXk = 1
μ 2k¹a k
o;
28
que es de nuevo una distribuci¶on Gaussiana multivariada de variables independientes.
A continuaci¶on estudiamos el caso Gaussiano multivariado de variables dependientes.
Suponga que £ 2 R m y que la informaci¶on adicional por el consumo de cualquier q 0 2 S 0est¶a dada por 8>><>>:
ZR m
£¼ (£)d£ = c ;ZR m
(£ ¡ c ) (£ ¡ c ) T ¼ (£)d£ = D ;
donde c 2 R m y D es una matriz sim¶etrica de¯nida positiva de m £ m . En este caso lacondici¶on de primer orden conduce a
¼ ¤ (£jq 0 ) = exp©+ h¤;£i + hL (£ ¡ c ) ;£ ¡ c i
ª;
donde ¸ 2 R ; ¤ 2 R m , y L es una matriz sim¶etrica de m £ m . Puede se mostrado, sinmucha di¯cultad, pero con mucha ¶algebra, que
¼ ¤ (£jq 0 ) = (2¼ ) ¡m2 (det[D ] ) ¡
12 exp
©¡ 12 hD
¡ 1 (£ ¡ c );£ ¡ c iª:
7 . C o n c lu sio n e s
Se ha analizado el proceso de aprendizaje de un consumidor racional sobre su funci¶on de
utilidad. Para tal efecto, se introdujeron varias distribuciones derivadas de la optimizaci¶on
de medidas de informaci¶on (m¶³nima entrop¶³a cruzada y m¶axima entrop¶³a) Estas distribu-
ciones describieron el comportamiento racional de los individuos cuando estos incorporan
informaci¶on adicional en su funci¶on de utilidad . Asimismo, se estudiaron varios patrones
de comportamiento en cuanto al tipo de informaci¶on que los individuos obtienen a trav¶es del
proceso de aprendizaje y se examinaron algunos modelos de naturaleza multiparam¶etrica.
La parte fundamental de las conclusiones en trabajos de investigaci¶on es, por supuesto,
el mencionar las limitaciones y extensiones del propio trabajo. Comenzamos con las limi-
taciones:
(i) Existen otras medidas de informaci¶on, y por lo tanto otras distribuciones derivadas
de la optimizaci¶on de dichas medidas, a saber, las distribuciones de Bernardo y las
de Zellner. Estamos completamente conscientes, de que m¶as trabajo debe hacerse
29
al respecto. Aunque debemos mencionar tambi¶en, que el modelado del proceso de
aprendizaje con estas medidas de informaci¶on tomar¶³a una direcci¶on diferente a la
aqu¶³ expuesta debido a la presencia de modelos muestrales. En un futuro trabajaremos
sobre esta l¶³nea de investigaci¶on.
(ii) Todos los patrones de aprendizaje desarrollados, en este trabajo, conducen a distribu-
ciones de probabilidad, que adem¶as de ser conocidas, pueden expresarse en forma
anal¶³tica. En la realidad, lo m¶as probable, es que la distribuci¶on resultante no puede
expresarse anal¶³ticamente. De lo que s¶³ podemos estar completamente seguros es que
la distribuci¶on satisface el sistema no lineal homog¶eneo (4.1 .4) ¶o (4.2.3) , dependiendo
respectivamente de si la distribuci¶on es de m¶³nima entrop¶³a cruzada o de m¶axima
entrop¶³a. En cuyo caso tenemos que encontrar soluciones aproximadas v¶³a algoritmos
especializados como, por ejemplo, Newton Raphson.
Una extensi¶on muy importante del m¶etodo empleado, que queremos mencionar, con-
siste en conjuntar la informaci¶on a p rio ri de los miembros de una familia. Por ejemplo, si
una familia tiene dos miembros, uno de los cuales supone, a p rio ri, que el par¶ametro de su
funci¶on de utilidad μ » N (¹ 1 ;¾ 21 ) ; y el otro que μ » N (¹ 2 ;¾ 22 ): > Cu¶al es la distribuci¶ona p rio ri de ambos? Si se quiere utilizar el principio de m¶axima entrop¶³a. La familia tiene
entonces que resolver el siguiente problema:
Maximizar ¡Z 1
¡ 1¼ (μ ) log ¼ (μ ) d μ ;
sujeto a
8>>>>>>><>>>>>>>:
Z 1
¡ 1¼ (μ ) d μ = 1;Z 1
¡ 1
³¹ 1 ¡ μ
¾ 1
2
¼ (μ ) d μ = 1;Z 1
¡ 1
³¹ 2 ¡ μ
¾ 2
2
¼ (μ ) d μ = 1:
La segunda restricci¶on contempla la informaci¶on del primer miembro. La tercera, la infor-
maci¶on del segundo.
La condici¶on de primer orden est¶a dada por
¼ ¤ (μ ) / expn
1
³¹ 1 ¡ μ
¾ 1
2
+ ¸ 1
³¹ 2 ¡ μ
¾ 2
2o;
en donde los multiplicadores asociados a las restricciones satisfacen, ¸ 1 ; ¸ 2 < 0; en otro
caso, la primera integral de de las restricciones no converge.
30
Despu¶es de algunas manipulaciones con ¶algebra (que son rutina en Estad¶³stica Baye-
siana cuando se trabaja con familias conjugadas normales) , encontramos que ¸ 1 = ¸ 2 = ¡ 12
y que
¼ ¤a m bos
(μ ) = N (¹ ;¾ 2 );
donde
¹ = ¹ 1
³ ¾ ¡ 21¾ ¡ 21 + ¾ ¡ 22
´+ ¹ 2
³ ¾ ¡ 22¾ ¡ 21 + ¾ ¡ 22
´y
¾ ¡ 2 = ¾ ¡ 21 + ¾ ¡ 22 :
En el futuro, tambi¶en trabajaremos esta l¶³nea de investigaci¶on
B ib lio g ra f¶³a
Arrow, K. J. , and Green, J. (1973) , Notes on expectations equilibria in Bayesian settings,
Working paper No. 33, The Economic Series, Institute for Mathematical Studies in
the Social Sciences, Stanford University.
Becker, G. M. , DeGroot, M. H. , and Marschak, J. (1963) , S toch a stic M od els o f ch o ice
beh a vio r, Behavioral Science, 8 , pp. 41-55.
Berger, J. O. (1985) , Statistical Decision Theory and Bayesian Analysis, Springer Series
in Statistics.
Bernardo, J. M. (1979) , R eferen ce po sterio r d istribu tio n s fo r B a yesia n in feren ce , J. R.
Statist. Soc. B, 4 1 , pp. 113-147.
Boltzmann, L. (1877a) B em erku n gen Äu ber ein ige p ro blem e d er m ech a n isch en w Äa rm eth eo -
rie , Wien. Ber. 7 5 , p. 62.
Boltzmann, L. (1877b) ÄU ber d ie bezieh u n g sw isch en d em sw eiten h a u p tsa tze d er m ech a -
n isch en w Äa rm eth eo rie , Wien. Ber. 7 6 , p. 373.
Clasius, R. (1850) , A bo u t th e M o tive F o rce o f H ea t, Ann. Phys. Chem. , 7 9 , pp.368-500.
Cohen, M. D. , and Axelrod, R. (1984) , C o p in g w ith co m p lexity: th e a d a p tive va lu e o f
ch a n gin g u tility, American Economic Review, 7 4 , pp. 30-42.
Cyert, R. M. , and DeGroot, M. H. (1980) , L ea rn in g a p p lied to u tility fu n ctio n s, Bayesian
Analysis in Econometrics, North-Holland, pp. 160-168.
31
de Alba, E. y M¶arquez, J. (1990) , A p lica ci¶o n d e u n m ¶etod o d e p ro n ¶o stico ba yesia n o pa ra
el cu m p lim ien to ¶o p tim o d el en ca je lega l, Monetaria, 2 , pp. 229-235.
Good, I. J. (1960) , W eigh t o f evid en ce , co rro bo ra tio n , exp la n a to ry po w er, in fo rm a tio n
a n d th e u tility o f experim en ts, J. R. Statist. Soc. , B, bf 22, pp. 319-331 .
Gradshteyn, I. S. and Ryzhik, I. M. (1980) , Table of integrals, series, and products. New
York: Academic Press.
Grossman, S. J. , Kihlstrom, R. E. , and Mirman, L. J. (1977) , A ba yesia n a p p roa ch to th e
p rod u ctio n o f in fo rm a tio n a n d lea rn in g by d o in g , Review of Economic Studies, 4 4 , pp.
533-547.
Grossman, S. J. (1975) , R a tio n a l expecta tio n s a n d th e eco n o m etric m od elin g o f m a rkets
su bject to u n certa in ty: a B a yesia n a p p roa ch , Journal of Econometrics, 3 , pp. 255-272.
Jaynes, E. T. (1982) H o w sh o u ld w e u se en tro p y in eco n o m ics? (S o m e h a lf-ba ked id ea s in
n eed o f criticism ), manuscript.
Jaynes, E. T. (1982a) O n th e R a tio n a le o f M a xim u m -E n tro p y M eth od s, Proc. of the IEEE,
7 0 , pp. 939-952.
Jaynes, E. T. (1988) C o m m en t', American Statistician, 4 2 , pp. 280-281 .
Jaynes, E. T. (1957) , In fo rm a tio n th eo ry a n d sta tistica l m ech a n ics I, Phis. Rev. , 1 0 6 , pp.
620-630.
Je®reys, H. (1949) , A n in va ria n t fo rm fo r th e p rio r p ro ba bility in estim a tio n p ro blem s,
Proc. R. Soc. A. , 1 8 6 , pp. 453-461 .
Kapur, J. N. (1989) , Maximum Entropy Models in Science and Engineering, New Delhi,
Wiley Eastern.
Kihlstrom, R. E. , Mirman, J. M. , and Plostewaite, A. (1984) , E xperim en ta l C o m su m p tio n
a n d th e \ R o th sch ild e® ect" ,Bayesian Models in Economic Theory, Edited by M. Boyer
and R. E. Kihlstrom, Elsevier Science Publishers B. V. pp. 279-302.
Kullback, S. (1956) , Information Theory and Statistics. New York, Wiley.
Lewis, G. (1981) , T h e P h illip s cu rve a n d B a yesia n lea rn in g , Journal of Economic Theory,
2 4 , pp. 240-264.
Lindley, D. V. (1976) , O n a m ea su re o f in fo rm a tio n p ro vid ed by a n experim en t, Ann.
Math. Statist. 2 7 , pp. 986-1005.
32
Marschak, , T. A. (1978) , O n th e stu d y o f ta ste ch a n gin g po licies, American Economic
Review, 6 8 , pp. 386-391 .
Nguyen, D. (1984) , T h e m o n o po listic ¯ rm , ra n d o m d em a n d , a n d B a yesia n lea rn in g , Op-
erations Research, 3 2 , pp.1038-1051 .
Pessemier, E. A. (1978) , S toch a stic p ro perties o f ch a n gin g p referen ces, American Economic
Review, 6 8 , pp. 380-385.
Planck, M. (1904) , ÄU ber d ie m ech a n isch e bed eu tu n g d er tem pera tu r u n d d er en tro p ie
(F estsch rift L . B o ltzm a n n ), J. A. Barth, Leipzig, p. 113.
Pollack, R. A. (1978) , E n d ogen o u s ta stes in d em a n d a n d w elfa re a n a lysis, American Eco-
nomic Review, 6 8 , pp. 374-379.
Prescott, C. E. , and Townsend, R. M. (1980) , E qu ilibriu m u n d er u n certa in ty: M u ltia -
gen t sta tistica l d ecisio n th eo ry , Bayesian Analysis in Econometrics and Statistics, (A.
Zellner, ed. ) , Amsterdam, North-Holland, pp 169-194.
113-147.
Shannon, C. E. (1949) , Mathematical Theory of Communications, Urbana: University of
Illinois Press.
Shore, J. E. and Johnson, R. W. (1980) , A xio m a tic d eriva tio n o f th e p rin cip le o f m a xim u n
en tro p y a n d th e p rin cip le o f m in im u m cro ss en tro p y , IEEE, Trans. Inform. Theory,
IT -2 6 , pp. 26-37.
Shore, J. E. and Johnson, R. W. (1981) , P ro perties o f cro ss-en tro p y m in im iza tio n , IEEE,
Trans. Inform. Theory, IT -2 7 , pp. 472-482.
Theil, (1967) , Economics and Information Theory, North-Holland. Studies in Mathemat-
ical and Managerial Economics.
Townsend, R. M. (1978) , M a rket a n ticipa tio n s, ra tio n a l expecta tio n s, a n d B a yesia n a n a l-
ysis. International Economic Review, 1 9 , pp. 481-494.
33
Venegas-Mart¶³nez, F. (1990) . On Regularity and Optimality Conditions for Maximum
Entropy Priors. The Brazilian Journal of Probability and Statistics, Vol. 4, pp.
105-136.
Venegas-Mart¶³nez, F. (1990) . Supplementary Prior Information, Computational Aspects,
and Classi¯cation. Journal of the Inter-American Statistical Institute, IASI, Vol. 42,
No. 139, pp. 64-80.
Venegas-Mart¶³nez, F. (1992) . Entropy Maximization and Cross-Entropy Minimization on
Quantiles: A Matrix Approach. Agrociencia, Serie Matem¶aticas Aplicadas, Estad¶³s-
tica y Computaci¶on, Vol. 3, No. 2, pp. 71-76.
Venegas-Mart¶³nez, F. (1993) . Learning on Utility Parameters. Recent Advances in
Bayesian Statistics and Econometrics, Vol. 2, No. 1 , pp. 65-83.
Venegas-Mart¶³nez, F. , E. de Alba, and M. Ordorica (1999) . On Information, Priors,
Econometrics, and Economic Modeling. Estudios Econ¶omicos, Vol. 14, No. 27, pp.
53-86.
Venegas-Mart¶³nez, F. (2000) . Utilidad, aprendizaje y estabilizaci¶on. Gaceta de Econom¶³a,
A~no 5, No. 10, pp. 153-169.
Venegas-Mart¶³nez, F. (2002) . Bayesian Procedures for Pricing Contingent Claims: Prior
Information on Volatility. Revista Mor¯smos, CINVESTAV, Vol. 6. No.2, pp. 25-41 .
Venegas-Mart¶³nez, F. y G. P¶erez-Lechuga (2003) . Prior Information in Stochastic Opti-
mization: Quasigradient Methods. Revista Mexicana de Econom¶³a y Finanzas, Vol.
2, No. 2, pp. 175-192.
Venegas-Mart¶³nez, F. (2004) . On Information Measures and Prior Distributions: A Syn-
thesis. Revista Mor¯smos, CINVESTAV, Vol. 8, No. 2, pp. 27-51 .
Venegas-Mart¶³nez, F. (2005) . Bayesian Inference, Prior Information on Volatility, and
Option Pricing: A Maximum Entropy Approach. International Journal of Theoretical
and Applied Finance, Vol. 8, No. 1 , pp. 1-12.
Venegas-Mart¶³nez, F. (2006) . Riesgo operacional: Un enfoque Bayesiano. Revista de
Estad¶³stica, Econometr¶³a y Finanzas Aplicadas, Vol. 4, No. 6, pp. 181-193.
S¶amano-Rodr¶³guez, M. A. y Venegas-Mart¶³nez, F. (2008) . Aprendizaje e informaci¶on
sobre los par¶ametros de preferencias. Eseconom¶³a, Revista de Estudios Econ¶omicos,
Tecnol¶ogicos y Sociales, No. 17, pp. 7-23.
34
Venegas-Mart¶³nez F. y S. Rivas Aceves (2009) . Gobierno como promotor del cambio tec-
nol¶ogico: Un modelo de crecimiento end¶ogeno con aprendizaje. Eseconom¶³a, Revista
de Estudios Econ¶omicos, Tecnol¶ogicos y Sociales, por aparecer.
Wehrl, A. (1978) , E n tro p y , Rev. Mod. Phys. , 5 0 , pp. 221-260.
White, C. C. (1984) , S equ en tia l d ecisio n m a kin g u n d er u n certa in fu tu re p referen ces, Op-
erations Research, 3 2 , pp. 148-168.
Zellner, A. (1984) , Basic Issues in Econometrics, University of Chicago Press, Chicago.
Zellner, A. (1985) , B a yesia n E co n o m etrics, Econometrica, 5 3 , pp. 253-270.
Zellner, A. (1971) , An Introduction to Bayesian Inference in Econometrics, New York,
John Wiley.
Zellner, A. (1980) , Bayesian Analysis in Econometrics and Statistics, (A. Zellner, ed. ) ,
Amsterdm, North-Holland.
Zellner, A. (1990) , B a yesia n m eth od s a n d en tro p y in eco n o m ics a n d eco n o m etrics, Manu-
script, Graduate School of Business, University of Chicago.
35