Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Abstract
El presente documento sera un intento de resumir los contenidos
de la materia ”Matemática para Economistas” de la cátedra Fronti.
En el mismo, se intentará resumir todo lo que se pueda llegar a tomar
en un parcial. A su vez, se asume que ya se conocen los contenidos
dados en las materias Álgebra Lineal y Análisis Matemático II.
Contents
1 Transformación Lineal 4
1.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Diagonalización 14
2.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3 Estática Comparativa 22
3.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Matrices no Negativas 26
4.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1
5 Formas Cuadráticas Libres 34
5.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6 Optimización Libre 38
6.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8 Optimización restringida 45
8.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
8.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
9 Programación no Lineal 50
9.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
9.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
10 Ecuaciones Diferenciales 59
10.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
10.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
12 Control Óptimo 79
12.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
12.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
13 Ecuaciones en Diferencias 93
13.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
13.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2
15 Programación Dinámica 105
15.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
15.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3
1 Transformación Lineal
1.1 Teorı́a
Las transformaciones lineales son las funciones con las que trabajaremos en
Álgebra Lineal. Se trata de funciones entre K-espacios vectoriales que son
compatibles con la estructura (es decir, con la operación y la acción) de estos
espacios.
Una función1 f : V → W se dice que es Transformación Lineal si cumple las
dos siguientes condiciones:
1. f (X + Y ) = f (X) + f (Y ) ∀X, Y ∈ V
2. f (λX) = λf (X) ∀λ ∈ K, ∀X ∈ V
f (λX + λY ) = λf (X) + λf (Y )
Teorema:
Sea f : V → W una TL2 , xi vectores pertenecientes al Espacio Vectorial V
y αi escalares del cuerpo K, entonces:
n n
!
i
αi f (X i )
X X
f αi X =
i=1 i=1
Lo que quiere decir este teorema, es que todas las TL preservan las combi-
naciones lineales. Se demuestra por inducción completa3
Si n=1:
f (α1 X 1 ) = α1 f (X 1 )
Por propiedad de TL.
Si n=k y n=k+1:
k+1
!
i
X
f αi X =
i=1
1
Esto puede ser tanto matrices, vectores, polinomios, sucesiones, funciones, etc.
2
Léase ”Transformación Lineal”.
3
Este procedimiento demuestra primero que se cumple para n=1 y, posteriormente, se
supone que se cumple para n=k para después demostrar que se cumple para n=k+1.
4
k
!
αi X i + αk+1 X k+1 =
X
f
i=1
k
!
αi X i + f αk+1 X k+1 =
X
f
i=1
k
αi f (X i ) + αk+1 f (X k+1 ) ==
X
i=1
k+1
αi f (X i )
X
i=1
Y = f (X)
4
La dimensión es la cantidad de vectores.
5
A su vez, como la función de V pertenece a W:
n m n m
∂ij W j = αi ∂ij W j
X X X X
Y = αi
i=1 j=1 i=1 j=1
6
Teorema:
Las matrices A y B, de mxn, son equivalentes si y solo si existen matrices no
singulares P y Q tales que B=PAQ. La matriz P representa las operaciones
elementales sobre las filas de A, y la Q representa las operaciones elementales
sobre las columnas.
Esto quiere decir, que si en una TL nos cambian alguna base, las matriz
asociada va a cambiar. Pero se mantienen relacionadas entre si:
Sean [V] y [V’] dos bases del mismo dominio y [W] [W’] dos bases del codo-
minio, cada vector X perteneciente a V e Y perteneciente a W, tendrán coor-
denadas Xv , Xv0 , Yw , Yw0 respectivamente asociadas a cada una de las bases.
Para demostrar que las matrices asociadas a una misma TL son equivalentes:
Sean A y B matrices asociadas la TL de una misma función, para dos pares
de bases del domino y codominio, y a su vez P y Q son matrices de paso en
V y W respectivamente. Entonces se definen las siguientes 4 ecuaciones:
X[v] = P X[v0 ]
Y[w] = QY[w0 ]
Y[w] = AX[v]
Y[w0 ] = BX[v0 ]
De las ecuaciones dos y tres concluimos que:
QY[w0 ] = AX[v]
N (f ) = {X ∈ V : f (X) = 0W }
7
Se define a la imagen de la TL como el subconjunto del codominio cuyos
elementos son alcanzados por la TL.
I(f ) = {Y ∈ W : ∃X ∈ V : f (X) = Y }
Teoremas:
El núcleo de toda TL es un subespacio vectorial del dominio.
La imagen es un subespacio vectorial del codominio.
Si V tiene una dimensión finita:
kf (v)k = kvk
kV 1 − V 2 k = kf (v 1 ) − f (v 2 )k
8
1.2 Practica
En este apartado, se hará un ejercicio central del tema explicado en la sección
de teorı́a. Los mismos, son ejercicios de la guı́a y se pueden completar con
los apuntes de cada carpeta.
Ejercicio 1:
¿Es la siguiente función una TL?
x1 " #
x+y
F y1 =
2x + z
z1
Aplicando la función,quedarı́a:
" #
x1 + y1 + x2 + y2
2x1 + z1 + 2x2 + z2
9
por el escalar:
x αx
αF y = F αy =
z αz
" # " #
αx + αy x+y
=α
α2x + αz 2x + z
Por lo tanto, se concluye que cumple la segunda condición. En otras palabras,
si es una TL.
Ejercicio 2:
Para la matriz asociada A, de una TL T : R3 → R3 , encontrar una base
para la imagen de T, una base para el núcleo de T y determinar el rango y
la nulidad de T.
2 0 −1
A = 4 0 −2
0 0 0
Para encontrar la base para la imagen, se expande la matriz A, agregando
una columna de variables y se trata de despejar alguna.
2 0 −1 y1
4 0 −2 y2
0 0 0 y3
y3 0 0
8
En este caso, se escribe en función de alpha, que representa la relación entre las
variables. Posteriormente, se saca el escalar afuera.
10
Este último vector numérico, es la base de la imagen.
Para averiguar una base del núcleo, se multiplica la matriz por variables y
se iguala a 0, por definición de núcleo. Se despejan las variables, se escriben
en función de la relación entre estas y nos quemados con el vector numérico.
2 0 −1 x1 0
4 0 −2 x2 = 0
0 0 0 x3 0
De acá, se saca que - según la primera fila -x3 = 2x1 . Sin embargo, x2 va a
quedar expresada en función de otro escalar.
x1 α 1 0
x2 = β = α 0 + β 1
x3 2α 2 0
Para encontrar el rango, vemos la dimensión de la imagen (en este caso 1).
Y para ver la nulidad, vemos la dimensión del núcleo (en este caso 2).
Ejercicio 3:
Hallar la Matriz asociada con respecto a las bases canónicas del dominio y
del codominio de la siguiente TL en R2 → R3 . Posteriormente, hallar la
matriz asociada de la misma TL pero con cambio de bases.
" # x1 + x2
x1
T = −x1
x2
0
Primero, definimos las bases9 . Las de salida (R2 ) van a ser (1; 0) y (0; 1).
Las de llegada (R3 ) van a ser (1, 0, 0), (0, 1, 0) y (0, 0, 1).
Introducimos las bases de salida en la función T y nos da un vector:
T (1; 0) = (1; −1; 0)
T (0; 1) = (1; 0; 0)
Ahora, con estos nuevos vectores, los buscamos expresar como combinación
lineal de las bases de llegada. Esas combinaciones lineales van a estar mul-
tiplicadas (cada termino) por escalares. Nuestro objetivo es encontrar estos
escalares por un sistema de ecuaciones:
(1; −1; 0) = α1 (1; 0; 0) + β1 (0; 1; 0) + ω1 (0; 0; 1)
9
Como te dicen que las del dominio y codomino (salida y llegada) son canónicas, van
a ser un 1 y el resto 0.
11
(1; 0; 0) = α2 (1; 0; 0) + β2 (0; 1; 0) + ω2 (0; 0; 1)
En este caso, es bastante simple. Cada escalar va a ser el número que de la
posición correspondiente (ya que el resto,para todas las posiciones, va a ser
0). La respuesta serı́a:
12
¡
T (−2; 4) = (2; 2; 0) = 0(1; 1; 1) + 1(2; 2; 0) + 0(3; 0; 0)
Ahora, armamos la matriz con los escalares que obtuvimos y la trasponemos:
0 0
− 12 1
B=
5
3
0
1 0 0
En este caso, las nuevas bases van a ser las matrices de paso P y Q. Sin
embargo, esto solo se da porque las bases viejas son canónicas. En caso de
que las bases viejas no sean canónicas, las bases nuevas se van a encontrar
multiplicando la base vieja por la matriz de paso. En otras palabras,la matriz
de paso (P o Q), va a ser igual a la base vieja por la base nueva.
Ejercicio 4:
¿Es la siguiente matriz asociada de una TL ortogonal?
1
" #
1 √2
A= 3
0 2
13
v
√ !2
u 2
u 1 3
kC2 k = +
t
=1
2 2
√
1 3
< C1 C2 >= 1 + 0 6= 0
2 2
Se concluye que la matriz asociada, y por lo tanto la TL, no son ortogonal
(su producto interior no es 0).
2 Diagonalización
2.1 Teorı́a
Valores y vectores propios:
Sea (V, +, ∗) un espacio vectorial y una función V → V una TL con matriz
asociada A:
El escalar λ es un valor propio de A ∈ K nxm si y solo si existe un vector no
nulo X ∈ K nx1 tal que:
AX = λX
Al vector X lo llamamos ”vector propio asociado a λ”12 .
Despejando, nos queda un sistema lineal homogéneo tal que:
(A − λI)X = 0
det(A − λI) = 0
14
demuestra por inducción matemática completa:
Sea X i el vector propio asociad al valor propio λi de la matriz A, se cumple
que es LI ya que hay solo un vector (se cumple para n=1). Suponiendo que
se cumple para (n=k-1), demostramos que se cumple para n=k:
k
C 1 xi = 0
X
i=1
Pre-multiplicamos por A.
k
Ci X i = 0
X
A
i=1
k
Ci (AX i ) = 0
X
i=1
k
Ci (λi X i ) = 0
X
i=1
i=1
i=1
Ci (λi − λk ) = 0
Ci = 0
15
• La suma de todos los menores de orden i de A que contienen en su
diagonal principal elementos de la diagonal principal de A.
16
Reemplazando las sumatorias por C y sacando factor común:
|λ| ≤ C
Para comprobar lo mismo con F, se traspone las ecuaciones y se procede
exactamente igual. Como lambda tiene que ser menos a C y a F se comprueba
el teorema.
Matrices Semejantes:
Dos matrices cuadradas, A y B son semejantes (AB) si y solo si existe una
matriz no singular P tal que:
B = P −1 AP
Todas las matrices semejantes son equivalentes, pero no todas las matrices
equivalentes son semejantes. Algunas propiedades:
Diagonalización de Matrices:
Una matriz Anxn es diagonalizable si y solo si es semejante a una matriz
diagonal A que tiene en la diagonal principal los valores propios de A. Es
decir, si y solo si existe una matriz singular P14 tal que:
Λ = P −1 AP
Teorema:
Una matriz es diagonalizable si y solo si admite n vectores propios LI. La
modal se conforma con los n vectores propios LI, ordenados como vectores
columnas de acuerdo a los valores propios en Λ.
14
Se llama a P ”matriz de paso” o ”modal”.
17
Si los autovalores son repetidos, no son LI. Ahı́, hay que extraer una can-
tidad de vectores LI de esos autovalores repetidos. Y solo ahi, tal ve sea
diagonalizable. Cada autovalor con orden de multiplicidad m debe tener un
autovector LI asociado.
Teorema:
Anxn es diagonalizable si y solo si cada valor propio Xi con orden de multi-
plicidad m le corresponde un sistema A − λI cuyo rango sea n-m.
Se demuestra mediante el producto (A − λi I)X, que es una TL de Rn → Rn .
Los vectores asociados a λi son parte del núcleo de esta TL. Y por el teorema
de rango-nulidad:
< X 1 X 2 >= 0
18
Toda matriz simétrica real, es diagonalizable sobre el campo de los reales con
una matriz de paso ortogonal15 . Y si una matriz real tiene una matriz de
paso ortogonal que la diagonalice, entonces es simétrica.
Demostración:
A = P −1 ΛP
At = (P −1 ΛP )t = P t Λt (P −1 )t =
At = P −1 ΛP
Los autovectores, son ortogonales, pero hay que normalizarlos. Esto serı́a
dividirlos por su norma.
2.2 Apéndice
Se puede calcular los vectores propios de los adjunto: Sean las M Xmxp e
Ypxn tales que XY = 0mxn , entonces:
r(y) ≤ p − r(x)
det(A − λi I)Inxn = 0
Si λi tiene orden de multiplicidad 1:
r(A − λi I) = n − 1
r(adj(A − λi I)) ≤ n − (n − 1) = 1
19
2.3 Practica
Ejercicio 1:
Hallar los autovectores y autovalores de la siguiente matriz:
" #
4 2
C=
3 3
4−λ 2
|C − λI| =
3 3−λ
(4 − λ)(3 − λ) − 4 = 0
λ2 − 7λ − 6 = 0
λ1 = 6 λ2 = 1
" # " #" # " #
4 − λ1 2 −2 2 X1 0
= =
3 3 − λ1 3 −3 X2 0
De esta ecuación, se saca que X1 = X2 , entonces:
" #
1 1
X =
1
20
Ejercicio 2:
Hallar los autovectores y autovalores de la siguiente matriz:
5 4 2
C= 4 5 2
2 2 2
5−λ 4 2
|C − λI| = 4 5−λ 2
2 2 2−λ
Buscando el determinante de la matriz nos queda que el polinomio carac-
terı́stico es:
−λ2 + 12λ2 − 2λ + 10 = 0
λ1 = 10 λ2 = 1 λ3 = 1
Usando el λ1 , obtenemos el siguiente sistema:
−5 4 2 X1 0
4 −5 2 2 = 0
X
2 2 −8 X3 0
Para esto, usamos el método de la matriz adjunta transpuesta16 . Este método
consiste en transponer la matriz |C − λ1 I| y calcular la adjunta. Recordemos
que la adjunta es poner en cada lugar, el determinante de la matriz que queda
si eliminas la fila y columna del mismo lugar:
36 36 18
t
Adj((C − λI) ) = 36 36 18
18 18 9
Cualquier columna de esta matriz es valida como autovector.
36
X1 =
36
18
Para los siguientes λi repetidos, hacemos el mismo procedimiento.
5−λ 4 2 4 4 2 X1 0
|C − λI| = 4 5−λ 2 = 4 4 2 X2 = 0
2 2 2−λ 2 2 1 X3 0
16
Para variar un poco. Si, ası́ de gede soy.
21
Si bien podemos ver 3 ecuaciones, en realidad todas son las mismas propor-
cionalmente. Es por esto que se concluye que 4X1 = −4X2 − 2X3 .
De acá, elegimos valores arbitrarios para X2 y X3 , como por ejemplo 1 y 0 y
averiguamos X1 . Entonces, el autovector restante es:
−1
2
X = 1
0
Para sacar el otro autovector, y asegurarnos que sea LI, asignamos los mismos
valores que antes pero invertidos (en este caso 0 y 1).
− 12
3
X = 1
3 Estática Comparativa
3.1 Teorı́a
En un equilibrio inicial, nos preguntamos como cambia ese equilibrio ante un
cambio en algún parámetro o variable exógena. Se llama estática porque no
estudiamos el podrecimiento de ajuste hacia el nuevo equilibrio, ni cuanto se
tarda en llegar ahı́ o si siquiera es estable. Se trata de encontrar una tasa de
cambia de alguna variable endógena frente a alguna variable exógena (usando
las derivadas parciales).
Hay veces que tenemos un sistema de ecuaciones escritas de forma implı́cita.
Es por esto que se usa el Teorema de la Función Implı́cita:
Dado un sistema de ecuaciones en forma implı́cita (1):
22
F n (Y1 ; Y2 ; ...; Yn ; X1 ; X2 ; ...; Xm ) = 0
Si todas las funciones F 1 , F 2 , ..., F n tienen derivadas parciales continuas
respecto a las n+m variables (Y1 ; Y2 ; ...; Yn ; X1 ; X2 ; ...; Xm ) en un entorno
0
(Y10 , Y20 ; ...Yn0 ; X10 ; X20 ; ...; Xm ) en el cual se satisface (1) y el jacobiano de las
i
F respecto a Yi es no nulo en el punto:
∂F 1 ∂F 1 ∂F 1
∂Y1 ∂Y2
... ∂Yn
∂F 2 ∂F 2 ∂F 2
...
|J| = ∂Y1 ∂Y2 ∂Yn 6= 0
... ... ... ...
∂F n ∂F n ∂F n
∂Y1 ∂Y2
... ∂Yn
23
3.2 Practica
Ejercicio 8:
M0 − p1 X1∗ − p2 x∗2 = 0
(1)
αx∗α−1
1 x ∗1−α
2 − λ∗
− p 1 = 0 (2)
∗−α
(1 − α)x∗α −
1 x 2 λp 2 = 0 (3)
Este ejercicio consiste en dos partes. Primero, nos pide plantear el sistema
matricial para ver como reaccionan las variables exógenas ante un cambio
en alguna variable endógena. Posteriormente, nos pide plantear un cambio
especifico, como varia X1∗ ante un cambio en P1 .
Para plantear el sistema matricial, primero tenemos que averiguar que vari-
ables son endógenas y cuales exógenas. Las endógenas son las variables que
el modelo trata de explicar. Cuando tienen un asterisco arriba, simbolizan
que están en equilibrio. En este caso, las endógenas son {X1 ; X2 ; α}. Por lo
tanto, las variables exógenas son {M0 ; P1 ; P2 }17 .
El sistema matricial se va a componer de 3 partes. La primera, una matriz
grande que vamos a llamar Jacobiano. La segunda es un vector de incógnitas.
Y finalmente, el vector de términos independientes. Voy a dar una manera
general de como armar las matrices, siempre respetando el orden. La expli-
cación de porque es ası́, esta dada en la teorı́a pero acá buscamos una forma
practica.
Jacobiano: Esta es la matriz mas grande. En la fila 1 (linea horizontal18 ) va-
mos a poner las derivadas de la función 1, respecto a las variables endógenas.
En la fila 2, las derivadas de la función 2 respecto a las variables endógenas.
En la fila 3, las de la función 3 respecto a las variables endógenas. Y ası́.
Hay que tener mucho cuidado con donde ponemos las variables endógenas.
Si, por ejemplo, ponemos a la variable endógena 1 como primer elemento de
la matriz, va a ser el primer elemento de cada fila. Es decir, cada variable
endógena (la cual, en realidad va a ser una derivada de una función respecto
esta variable) va a estar ocupando la misma columna siempre.
Vector de incógnitas: En este vector columna, vamos a poner las derivadas
de las variables endógenas respecto a las exógenas o parámetros. Lo que es-
tamos buscando básicamente. Si te pide ver como cambia (por ejemplo)
lambda cuando cambia la cantidad de dinero, vamos a poner todas las vari-
ables endógenas respecto a la cantidad de dinero. Acá entra en juego el orden
17
Y alpha es un parámetro.
18
Aclaro por las dudas porque nunca viene mal recordarlo.
24
de como lo pusimos en el Jacobiano. Si en la primera columna derivamos
respecto a la variable ”K”, el primer elemento del vector de incógnitas va a
ser la derivada de ”K” respecto a la variable que queremos estudiar. Notese,
que esto es lo que estamos buscando. Lógicamente solo vamos a encontrar
estas derivadas cuando resolvamos el ejercicio, no antes.
Vector de términos independientes: En esta ultima parte de la matriz,
hay que tener en consideración que todos los signos van a estar cambiados.
Va a haber un menos que cambie el signo de las derivadas. Acá, vamos a
derivar las funciones (en el orden expresado antes, osea la 1 en la primera
posición, la 2 en la segunda posición y ası́) con respecto a la variable que
queremos estudiar.
Todo esto expresado en un sistema matricial quedarı́a como:
∂F 1 ∂F 1 ∂F 1 1
∂λ ∂F
− ∂M
∂λ ∂X1 ∂X2 ∂M0 0
∂F 2 ∂F 2 ∂F 2 ∂X1 ∂F 2
= − ∂M
∂λ ∂X1 ∂X2
∂M0
0
∂F 3 ∂F 3 ∂F 3 ∂X2 ∂F 3
∂λ ∂X1 ∂X2 ∂M0 − ∂M 0
25
Por lo tanto, si lo expresamos en una sola ecuación:
A(I; G0 ) − B(I) = 0
4 Matrices no Negativas
4.1 Teorı́a
Una matriz A es no negativa si y solo si todos sus elementos son no nega-
tivos. Esto es A ≥ 0.
Una matriz A es positiva si y solo si todos sus elementos son mayores que
0. Esto es A > 0.
Una matriz A es reducible o descomponible si y solo si es posible, medi-
ante el intercambio simultaneo de filas y columnas,reducirla a la forma20 :
" #
0 A11 A12
A =
0 A22
20
De caso que no se pueda, será irreducible o no descomponible.
26
Donde A11 y A22 son sub-matrices cuadradas y 0 es una sub-matriz nula.
El pasaje de A a A0 se realiza pre-multiplicando A por una matriz de per-
mutación (de 1 y 0, entonces ortogonal por definición) y pos-multiplicando
por su transpuesta.
Se llaman reducibles porque si consideramos un sistema AX = C donde A
es reducible: " #" # " #
A11 A12 X1 C1
=
0 A22 X2 C2
El subsistema A22 X2 = C2 se puede resolver de forma independiente del
resto. Adicionalmente, A y A’ son matrices semejantes.
Una matriz cuadrada A es reducible o descomponible si y solo si el conjunto
formado por los números enteros de1a n, o sea N={1,2,···,n} puede separarse
en dos subconjuntos no vacı́os I y J tales que:
• N = I ∪ J; I ∩ J = ∅
• aij = 0 para i ∈ I; j ∈ J
27
Teorema Aplica a r∗ |r∗ | X∗
Perrón Primitivas Simple, real y positiva |r∗ | > |r| x∗ > 0
1 F. Irreducibles y no negativas Simple, real y positiva |r∗ | ≥ |r| x∗ > 0
2 F. No Negativas Real y no negativa |r∗ | ≥ |r| X∗ ≥ 0
Matrices Estocásticas:
Un vector estocástico es un vector fila 21 p = (p1 ; p2 ; ...; pn ) tal que pi ≥ 0
para todo i y la suma de sus componentes es igual a uno.
Una matriz estocástica es una matriz cuadrada P, cuando todas sus fi-
las son vectores estocásticos. Esta matriz P, es a su vez no negativa.Una
propiedad es que si A y B son dos matrices estocásticas, entonces su pro-
ducto es también una matriz estocástica.
Teorema:
Si P es una matriz estocástica, entonces su raı́z maximal es igual a 1. Se
demuestra mediante el segundo teorema de Frobenius. Si llamamos r a la
raı́z maximal y w al vector propio asociado, por definición de vector propio:
rw = wP
r(w1 +w2 +...+wn ) = (p11 + p12 + ... + p1n ) w1 +(p21 + p22 + ... + p2n ) w2 +...
| {z } | {z }
=1 =1
21
Cuidado! Esto cambia. Hasta ahora trabajamos con vectores columnas pero en este
apartado no.
28
Como w es no negativo, la suma de sus componentes es estrictamente mayor
a 0, entonces r es igual a 1.
Como conclusión, se puede sacar que si la raı́z maximal es 1, el resto de las
raı́ces tienen un modulo menor a 1.
Un Vector Estocástico Fijo de una matriz estocástica P es un vector
estocástico w que cumple:
wP = w
Este vector estocástico fijo es el vector propio estocástico asociado a la raı́z
maximal (que por el teorema anterior es 1). Toda matriz estocástica tiene al
menos un vector estocástico fijo22 (no es único porque el segundo teorema de
Frobenius no nos asegura que la raı́z sea única). Cuidado! Acá, a diferencia
de como lo calculábamos antes, el vector propio esta pre-multiplicando a la
matriz y es una fila.
Cadenas de Markov:
Las matrices estocásticas se usan para representar cadenas de Markov fini-
tas.Una cadena de Markov es un proceso estocástico en el cual la probabili-
dad de una prueba solo depende del resultado de la prueba precedente. Para
armar la matriz de Markov, usamos la siguiente notación:
• Filas: son los estados actuales.
u0 P = u1
u2 = u1 P = u0 P 2
Generalizando:
un = u0 P n
Se dice que este es un proceso homogéneo si las probabilidades permanecen
constantes en el tiempo (no se cambia la matriz P).
Teorema:
Sea P una matriz estocástica primitiva o regular:
lim uP n = W
n→∞
22
Como observación, este vector fijo representa el equilibrio.
29
Donde la matriz W es una matriz que tiene en cada una de sus filas, el vector
estocástico fijo w (y este es positivo).
De acá se desprende que si u es un vector estocástico cualquiera:
lim uP n = w
n→∞
Y se demuestra ası́:
lim uP n = uW = w
n→∞
B = (I − Q)−1 R
X(I − Q) = 0
XQ = X
Si iteramos n veces:
XQn = X
Como los elementos de Q son menores a 1, si aplicamos el limite tiende a 0,
osea:
lim XQn = 0
n→∞
x=0
23
Toda matriz estocástica tiene una reducible asociada.
30
Por lo tanto:
(I − Q)−1 ∃
Las probabilidades de pasar de un estado no absorbente a uno absorbente
están dadas por R.Las probabilidades de pasar de un estado no absorbente a
uno no absorbente, y luego a uno absorbente están dadas por QR.Las prob-
abilidades de permanecer en estados no absorbentes durante dos perı́odos
y luego pasar a uno absorbente está dada por Q2 R.Las probabilidades de
permanecer tres perı́odos en estados no absorbentes y luego terminar en
uno absorbente están dadas por Q3 R. Y ası́ sucesivamente... Entonces la
matriz de probabilidades de transicionar de un estado no absorbente a uno
absorbente en el largo plazo es:
n
Qi R = (I − Q)−1
X
lim
n→∞
i=0
4.2 Practica
Ejercicio 11:
Dada la siguiente matriz estocástica de transición, que representa la movili-
dad social, clasificarla, averiguar cual es la probabilidad de que un individuo
termine en la clase media al cabo de dos periodos si ahora se encuentra en la
clase baja y suponiendo una distribución actual de clase baja de 0,35, media
de 0,45 y alta de 0,2, averiguar la distribución en t=2.
0, 6 0, 35 0, 05
P = 0, 36 0, 5 0, 14
0, 05 0, 4 0, 55
Para empezar, podemos ver que todos sus elementos tienen signo positivo.
Es por esto que se clasifica como regular/primitiva. A su vez, vemos que
todos sus estados están conectados, por lo que es irreducible.
Para averiguar cual es la probabilidad que alguien de clase baja termine en la
clase media después de dos periodos, construimos el vector de estado actual
y lo multiplicamos por la matriz elevada al cuadrado (cantidad de periodos
que queremos actualizar). Esto quedarı́a como:
2
h 0, 6 0, 35 0, 05
i
1 0 0
0, 36 0, 5 0, 14
0, 05 0, 4 0, 55
31
El vector de estado actual es definido de esta forma, ya que el hay una certeza
que el individuo se encuentra en la clase baja y no en las demás. Resolviendo:
h i 0, 6 0, 35 0, 05 0, 6 0, 35 0, 05
1 0 0 0, 36 0, 5 0, 14 0, 36 0, 5 0, 14
=
0, 05 0, 4 0, 55 0, 05 0, 4 0, 55
h 0, 6 0, 35 0, 05
i h i
0, 6 0, 35 0, 05 0, 36 0, 5 0, 14
= 0, 4885 0, 405 0, 1605
0, 05 0, 4 0, 55
Entonces se concluye que la probabilidad que el individuo se encuentre, de-
spués de dos periodos, en la clase media es de 0,405.
Para la parte final de ejercicio, el enunciado nos da implı́citamente un vector
de situación actual. Este es la distribución de la población:
h i
0, 35 0, 45 0, 2
0, 05 0, 4 0, 55 0, 05 0, 4 0, 55
h i
0, 392 0, 424 0, 184
Ejemplo borracho yendo al bar:
”Un borracho camina desde su casa al bar que queda a 4 cuadras. Si está en
las esquinas de las cuadras 1, 2o 3 camina hacia la izquierda o derecha con
igual probabilidad. Mientras que si está en su casa o en el bar se queda ahı́.”
Como sabemos que si esta en su casa o en el bar, se queda ahı́, se definen
estos dos estados como absorbentes. Esto significará que su probabilidad va a
ser 1. Si queremos armar la matriz de probabilidad, vamos a posicionarnos en
una fila y si vamos a la izquierda o derecha, las celdas de los lados van a tener
igual de probabilidad (0,5). Notese, que la diagonal principal, a excepción de
los extremos, van a ser 0 ya que no existe la probabilidad que se mantenga
en esa cuadra. Finalmente, también va a ser 0 la probabilidad de pasar de
la cuadra 2 a la 4 sin pasar por la 3 (por ejemplo). Entonces si armamos la
32
matriz P quedarı́a:
1 0 0 0 0
0, 5 0 0, 5 0 0
P =
0 0, 5 0 0, 5 0
0 0 0, 5 0 0, 5
0 0 0 0 1
Si queremos calcular los vectores fijos con raı́z maximal (λi = 1), nos vamos
a encontrar dos autovectores asociados a esta raı́z:
h i
1 0 0 0 0
Y h i
0 0 0 0 1
Esto tiene sentido, ya que el equilibrio a largo plazo se va a encontrar en los
estados absorbentes. Sin embargo, nos interesa saber cual de los dos va a ser
mas probable. Para esto, usamos el ultimo teorema de la teorı́a:
B = (I − Q)−1 R
Aplicando la formula;
0, 75 0, 25
B = 0, 5 0, 5
0, 25 0, 75
Para interpretar esto, es útil razonarlo como cuando armamos la matriz P.
Las filas son los estados actuales y las columnas son los estados finales (los
absorbentes en este caso). Entonces si estamos en la fila 1 y la columna 2, es
lo mismo que preguntarnos, ¿cuál es la probabilidad de estando en la calle 1
de terminar en el bar? Del mismo modo, si queremos verla probabilidad de
estando en la calle 2 de terminar en la casa, podemos ver el elemento a21 .
33
5 Formas Cuadráticas Libres
5.1 Teorı́a
Una forma cuadrática es una expresión polinómica homogénea de grado dos.
Es decir,una expresión del tipo:
n X
n
aij Xi Xj = X t AX
X
F (X) =
i=1 j=1
34
n
Y t ΛY = Xi Yi2
X
i=1
|Ai | > 0
35
completa:
Para n = 1 es trivial:
| − Ai | = (−1)i |Ai |
Teorema:28
Si la forma cuadrática homogénea es semi-definida, la matriz A tiene deter-
minante 0. Notese que no todas las matrices que tengan determinante 0 van
a ser semi-definidas.
Teorema:29
26
No puede ser definida positiva y negativa al mismo tiempo.
27
Condición necesaria y suficiente.
28
Condición necesaria pero no suficiente.
29
Condición suficiente pero no necesaria.
36
Si la matriz simétrica A, verifica que |Ai | > 0 para todo i, y |A| = 0 entonces
F(X) es semi-definida positiva.
Teorema:30
Si la matriz simétrica A, verifica que |A1 | < 0 alternando, y |A| = 0 entonces
F(X) es semi-definida negativa.
Teorema:31
Sea |Âk | el determinante de orden K que pueda obtenerse permutando filas
y sus correspondientes columnas de cada uno de los menores principales de
orden K de A. La forma cuadrática homogénea es:
• Semi-definida positiva si y solo si |Âk | ≥ 0 para todo K y |A| = 0
• Semi-definida negativa si y solo si (−1)k |Âk | ≥ 0 para todo K y
|A| = 0
5.2 Practica
Si bien no hay mucha practica de este tema (ya que se usa para optimización
libre mas que nada), esta bueno ver algunas cuestiones. La primera, como
armar la matriz A. Veamoslo con un ejemplo: Ejercicio 1:32
Sea F (·) = x2 + 2xy − yw − 7w2 se define F (X) = X t AX como:
h i 1 1 0 X
X Y W 1
0 −(1/2)
Y
0 −(1/2) −7 W
Todo muy lindo, pero ¿por qué es ası́ la matriz A? Esta es la forma simétrica.
Si se quiere razonar, la diagonal principal son los coeficientes que acompañan
a las variables elevadas al cuadrado. Los restantes componentes, son los
coeficientes que acompañan a los otros productos de variables. Si lo queremos
generalizar, vemos que cada producto tiene dos posiciones en la matriz. Es
por esto, que la suma de ambos iguales, tiene que dar como resultado el
coeficiente. Es por esto, que otro modo de escribir la matriz A (de forma no
simétrica) podrı́a ser:
h i 1 0 0 X
X Y W 2 0
0 Y
0 −1 −7 W
30
Condición suficiente pero no necesaria.
31
Condición necesaria y suficiente.
32
No de la guı́a.
37
Generalizando:
X12 X1 ∗ X2 ... X1 ∗ Xn
X 2 ∗ X 1 X22 ... X2 ∗ Xn
..
... ... ... .
Xn ∗ X1 Xn ∗ X2 ... Xn2
Ejercicio 2:
Dada la siguiente matriz asociada a una forma cuadrática, clasificar la forma
2
de la misma sabiendo que 0 < a < bc :
" #
a b
b c
Para realizar este ejercicio, nos detenemos en los menores principales domi-
nantes. El primero:
|A1 | = a
Y sabiendo que -por consigna- a es mayor a 0, lo definimos como positivo.
El segundo, igual al determinante de la matriz:
|A2 | = |A| = ac − b2
Como el primero fue positivo, buscamos que este también lo sea (de lo con-
trario seria indefinido) para definirla como positiva. Entonces desarrollamos:
ac − b2 > 0
b2
a>
c
Sin embargo, esto se contradice con el enunciado. Es por esto que se concluye
como indefinida.
6 Optimización Libre
6.1 Teorı́a
Sea f (x) = f (x1 , x2 , , xn ) una función al menos dos veces continuamente
diferenciable de n variables. Si en el punto x∗ = (x∗1 , x∗2 , , x∗n ) la función
38
presenta un extremo local entonces su diferencial primero se anula en x∗ , es
decir: n
∂f
df (X ∗ ) =
X
dxi = 0
i=1 ∂Xi
Como el diferencial primero se anula cualesquiera sean los valores de los dxi ,
no todos nulos. La única forma de garantizarlo es que todas las derivadas
∂f
parciales ∂X i
sean nulas en ese punto.A esta condición necesaria también se
la suele llamar condición de primer orden.
Es una condición necesaria porque todo extremo local la cumple, pero hay
puntos que cumplen la condición pero no son extremos locales. Por ejemplo
los llamados puntos de silla.
Para confirmar que ese extremo local efectivamente sea un extremo local, es
decir, sea un máximo o un mı́nimo, y descartar que sea un punto de silla se
debe evaluar el diferencial segundo de la función en ese punto.
• Si d2 f (X ∗ ) > 0 es un mı́nimo local.
i=1 j=1 ∂X i ∂X j
Donde las variables son dxi y dxj y la matriz es el cociente. Esta matriz, se
la llama Hessiano:
∂2f ∂2f ∂2f
∂x21 ∂x1 ∂x2
... ∂x1 ∂xn
∂2f ∂2f ∂2f
...
∂x22
∂x ∂x ∂x2 ∂xn
2 1
H(x∗ ) =
... ..
... ... .
∂2f ∂2f ∂2f
∂xn ∂x1 ∂xn ∂x2
... ∂x2n
39
Que es simétrica si se cumplen los supuestos del Teorema de Schwarz (o
Clairaut o Young) que permiten intercambiar el orden en que se toman las
derivadas sin alterar el resultado. Para verificar las condiciones de segundo
orden se debe estudiar el signo de la matriz Hessiana (evaluada en los puntos
crı́ticos).
La condición suficiente de segundo orden exige que la matriz Hessiana sea
definida positiva o negativa para mı́nimo o máximo, respectivamente.Si la
matriz Hessiana es semi-definida positiva o negativa entonces no podemos
asegurar que el punto estacionario sea mı́nimo o máximo, respectivamente.
Lo visto hasta acá se refiere a la determinación de extremos locales libres.
Para determinar los extremos globales libres se debe asegurar que la función f
cumpla cierta propiedad de “curvatura” sobre todo su dominio.Esta propiedad
es la concavidad o convexidad.
Concavidad y Convexidad:
Sea f : DßR una función real y D un sub-conjunto convexo no vacı́o de Rn .
Decimos que f es cóncava en D si y solo si para todo λ ∈ [0; 1] y para todo
x, y ∈ D:
f (λx + (1 − λ)y) ≥ λf (x) + (1 − λ)f (y)
Sea f : DßR una función real y D un sub-conjunto convexo no vacı́o de Rn .
Decimos que f es convexa en D si y solo si para todo λ ∈ [0; 1] y para todo
x, y ∈ D:
f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y)
Si queremos definir concavidad estricta o convexidad estricta, usamos el signo
de mayor o menor estricto y no el de mayor/menor o igual.
Algunas propiedades:
Existe otra relación entre los conjuntos convexos y las funciones convexas o
cóncavas (estas son condiciones necesarias):
40
• Si f es convexa, entonces S ≤ = {x|f (x) ≤ K} es un conjunto convexo
para todo K ∈ R
maxxy f (x; y; α)
X ∗ = X ∗ (α) Y ∗ = Y ∗ (α)
41
a través de X ∗ o Y ∗ . Esto, bastante anti-intuitivo, es porque las derivadas
parciales son 0:
d ∂
f (X ∗ (α); Y ∗ (α)) = f (X; Y ; α)
dα ∂α
La demostración sale a partir de desarrollar el diferencial total y unirlo con
las condiciones de primer orden:
df ∗ ∂X ∂Y
= fx0 + fy0 + fα0
dα ∂α ∂α
6.2 Practica
Ejercicio 1:
Dada la siguiente función:
f (X1 ; X2 ) = X1α X2β
con sus variables y parámetros mayores que 0,determinar los valores de los
parámetros para que la función sea cóncava.
Para analizar esto, tenemos que ver la matriz asociada al diferencial segundo,
y evaluar el signo de sus menores complementarios dominantes. Las derivadas
segundas son:
FX00 1 X1 = α(α − 1)X1α−2 X2β
FX00 2 X2 = β 2 X1α X2β−2
FX00 1 X2 = αβX1α−1 X2β−1
Armando la matriz del diferencial segundo:
α(α − 1)X1α−2 X2β αβX1α−1 X2β−1
" #
42
Despejando:
α<1
Esta es la primera condición. Sin embargo, nos queda analizar la segunda.
Para que la función sea cóncava, el determinante de la matriz tiene que ser
igual a 0. Lo planteamos:
Como sabemos que las variables son siempre positivas, las podemos sacar de
la ecuación y no nos cambia la expresión.
Aplicando distributiva:
(αβ)2 − α2 β + β 2 α + βα − α2 β = 0
(αβ)[−α − β + 1] = 0
Como sabemos por consigna que los parámetros son mayores que 0, los
sacamos de la expresión:
−α − β + 1 = 0
α+β =1
Entonces, concluimos que las dos condiciones para que la función sea cóncava
son:
• α<1
• α+β =1
43
Un esquema a modo de resumen sobre la condición de los signos de los
menores principales dominantes, es el siguiente:
Para el Hessiano evaluado en un punto:
44
La restricción lineal igualada a 0 define el sub-espacio del dominio.
Se puede formar una matriz, llamada Ā, para identificar el signo de la
forma. Definiendo un caso general:
F (X) = X t AXs.a.BX = 0
• Definida Positiva: si y solo si (−1)m |Āi | para todo i = m+1; ...; m+n
• Definida Negativa: si y solo si (−1)i |ïi | para todo i = m+1; ...; m+n
8 Optimización restringida
8.1 Teorı́a
Sea f (x) = f (x1 ; x2 ; ...; xn ) una función al menos dos veces continuamente
diferenciable de n variables sujeto a m restricciones de igualdad g j (x1 ; xn ; ...; xn ) =
Cj para j = 1; 2; ...; m < n.
33
Esta regla, se puede usar como regla general para siempre, ya sea m igual a 0 o a
cualquier número.
45
Se puede despejar las restricciones y reemplazarlas en la función, para poste-
riormente resolverlas como un problema de optimización libre. Otro método
posible es el de Lagrange:
m h
λj C j − g j X1 ; ...; Xn )]
X
L(X1 ; ...; Xn ; λ1 ; ...; λm ) = f (X1 ; ...; Xn ) +
j=1
46
Lo anterior, nos permite identificar extremos locales. Pero si queremos Ex-
tremos Globales, se deben cumplir algunas condiciones sobre las restric-
ciones y sobre la función objetivo. Esto se trata de la cuasi-concavidad o
cuasi-convexidad de la función objetivo, y de que las restricciones definan un
conjunto convexo en el dominio.
Una función F : D → R, donde D es un subconjunto convexo de Rn , es
cuasi-cóncava si y solo si para 2 puntos cuales quiere X e Y pertenecen a D
y λ pertenece a (0;1) se verifica que:
Propiedades:
47
Una Definición alternativa:
f es cuasi-cóncava si y solo si S ≥ = {x|f (x) ≥ K} es un subconjunto convexo.
f es cuasi-convexa si y solo si S ≤ = {x|f (x) ≤ K} es un subconjunto convexo.
A partir de esta definición alternativa es claro que toda función cóncava
(convexa) es cuasi-cóncava (cuasi-convexa), pero la recı́proca no es cierta.
Notese que esta definición no permite distinguir la cuasi-concavidad (cuasi-
convexidad) estricta.
Sea f : D → R con D ∈ Rn , un conjunto convexo y f sea clase C 2 . Además,
sea |Bi | el menor principal dominante de orden i + 1 de la siguiente matriz34
0 f1 ... fn
f1 f11 ... f1n
B= ..
... ... . ...
fn fn1 ... fnn
Teorema de la Envolvente:
Considerando el siguiente problema de optimización, y obteniendo las solu-
ciones óptimas dependiendo del parámetro:
48
Se forma:
f ∗ (α) = F (X(α); Y (α); α(α))
Buscando el diferencial y reemplazando los términos de las condiciones de
primer orden por 0:
df ∗ ∂L
= Fα0 − λ∗ gα0 =
dα ∂α
8.2 Practica
Primero, vamos a resumir todas las reglas se signos que tenemos hasta el
momento. Generalizando ambas reglas, libres y restringidas, obtenemos el
siguiente cuadro (donde m son las cantidades de restricciones):
Para la Matriz Ā
Punto MPC35 Concluye Para todo:
Def Pos Min Global U. (−1)m |Ā1 | > 0 E. Convexa i = m + 1; ...; m + n
Def Neg Max Global U. (−1)i |Āi | > 0 E. Cóncava i = m + 1; ...; m + n
Semi-Def Pos Min Global (−1)m |ïi | ≥ 0 Convexa i = m + 1; ...; m + n
Semi-Def Neg Max Global (−1)i |ïi | ≥ 0 Cóncava i = m + 1; ...; m + n
Una salvación, es que cuando definimos el punto, para las definidas esto es
una condición suficiente, mientras que para las semi-definidas es solo una
condición necesaria. Esto significa, que cuando es semi-definida, solo vamos
a concluir si es máximo o mı́nimo si toda la matriz es definida ası́. Si esta
evaluada en un punto, no podemos definir nada. De esta matriz, solo calcu-
lamos los (n-m) MPC.
Otra salvación muy importante, si hay una restricción, las Semi-Definidas
no concluyen puntos. Solo en libres.
Para la Matriz B
Cuasi-Cóncava (−1)i |Bi | > 0 D ∩ R+
n
n
Cuasi-Convexa |Bi | < 0 D ∩ R+
De esta última matriz, solo calculamos los (n-2) MPC debido a que el 1
siempre es 0 y el 2 siempre es negativo.
Para las Semi-Definidas, hay que usar el teorema necesario y suficiente. Este
49
serı́a: dada una matriz Ā asociada a una forma cuadrática (que puede o no
estar restringida), tenemos que calcular los siguientes MPC:
a11 a12 a13
¯
à = a21 a22 a23
9 Programación no Lineal
9.1 Teorı́a
Para empezar a analizar este tema, vamos a empezar viendo restricciones de
no negatividad. Esto serı́a:
max π = f (X1 ; ...; Xn ) s.a Xj ≥ 0 j = (1; 2; ...n)
En este caso, nos podemos encontrar con tres casos posibles:
• Que las derivadas parciales sean 0 y los Xi sean mayores que 0.
• Que las derivadas parciales sean 0 y los Xi sean también 0.
• Que las derivadas parciales sean menores a 0 y los Xi sean iguales a 0.
Esto se debe a que podemos obtener un punto máximo que no cumpla con
las condiciones de apartados anteriores por las restricciones36 . Generalizando
estas condiciones:
Fj (.) ≤ 0 Xj ≥ 0 Xj Fj (.) = 0 j = (1; 2; ...n)
36
Una buena intuición es imaginarse una parábola con su máximo en un ortante negativo,
pero como la restricción es de no negatividad el máximo va a estar en el ortante positivo.
50
Estas van a ser las condiciones de primer orden para un problema de maxi-
mización con restricciones de no negatividad. Si se tiene el mismo problema,
pero en vez de maximizar hay que minimizar, las condiciones van a ser:
Fj (.) ≥ 0 Xj ≥ 0 Xj Fj (.) = 0 j = (1; 2; ...n)
Ahora, si tenemos un problema de optimización pero con restricciones de
desigualdad mas generales con m restricciones, como el siguiente:
g 1 (.) ≤ r1
..
.
max π = f (X1 ; ...; Xn ) s.a
g m (.) ≤ rm
X1 ; X2 ; ...; Xn ≥ 0
Y planteando las condiciones de primer orden (las que vimos en este apartado):
∂ L̄ ∂ L̄
∂Xi
≤ 0 X1 ≥ 0 Xi ∂X i
=0
∂ L̄ ∂ L̄
∂Si
≤0 Sj ≥ 0 Sj ∂S i
=0
∂ L̄
∂λj
=0
Notemos como Lambda no tiene restricción de no negatividad. Es por esto,
que en esta variable si tenemos que usar las condiciones de primer orden
originales.
Vamos a hacer reemplazos para eliminar las variables que añadimos. Como:
∂ L̄
= −λj ≤ 0
∂Sj
51
Entonces:
λ≥0
Sj = rj − g j (.) ≥ 0
Entonces definimos las condiciones necesarias de Karush-Kuhn-Tucker
(KKT):
∂L ∂L
∂Xi
≤ 0 X1 ≥ 0 Xi ∂X i
=0
∂L ∂L
∂λj
≥0 λj ≥ 0 λj ∂λ j
=0
Estas condiciones de acá arriba son para un problema de maximización. En
cambio, para un problema de minimización:
∂L ∂L
∂Xi
≥ 0 X1 ≥ 0 Xi ∂X i
=0
∂L ∂L
∂λj
≤0 λj ≥ 0 λj ∂λ j
=0
52
Si f (.) es diferenciable y cuasi-cóncava en el ortante no negativo, las funciones
g j () son diferenciables y cuasi-convexas para todo j = 1, 2, ..., m en el ortante
no negativo, y se satisface al menos una de las siguientes condiciones:
• fX0 i (X ∗ ) < 0 para alguna variable.
• fX0 i (X ∗ ) > 0 para alguna variable que puede tomar un valor positivo
sin violar las restricciones.
• Las derivadas primeras FX0 i (.) con i = 1, 2, .., n no son todas 0 y la f (.)
es dos veces diferenciable en el entorno de X ∗ .
• Para todo vector dx∗ ∈ Rn que satisface g j (x∗ )dx∗ ≤ 0 para todo j,
existe > 0 y una curva continuamente diferenciable α : (0 : ] → Rn
tal que:
– α(0) = X ∗
– α0 (0) = dx∗
– Que satisfaga la restricción, osea g j (α(t)) ≤ rj
• Existe una bola U con centro en X ∗ ∈ Rn tal que las restricciones acti-
vas son convexas en U y existe un punto Z ∈ U tal que las restricciones
evaluadas en Z se cumplan.
37
En realidad no.
53
• Las restricciones activas son lineales.
9.2 Practica
En este apartado, vamos a realizar en detalle el ejercicio 14 de la guı́a
práctica. Este es, a mi entender, el mas completo ya que demuestra varios
caso. El ejercicio nos pide:
2X + 3Y ≥ 6 (A)
2 2
min F (X; Y ) = (X − 4) + (Y − 4) s.a −3X − 2Y ≥ −12 (B)
X; Y ≥ 0
L0λ1 : 2X + 3Y − 6 ≥ 0 λ1 ≥ 0 λ1 L0λ1 = 0
54
impidiendo obtener otro punto que yo quisiera. Sin embargo, si estoy pegado
a la pared, esa pared me esta impidiendo moverme mas. En otras palabras,
esa pared esta cumpliendo su rol de estar activa como restricción. Por eso,
entendemos restricción activa como la que se cumple con igualdad en vez de
desigualdad. Esto va a ser importante para mas adelante.
¿Qué restricciones tenemos? Bueno, esta es fácil. Son todas las que están en
la llave. Entonces tenemos 439 . Sin embargo, vamos a variar -principalmente-
las dos primeras (A y B). Las otras dos (X e Y mayores o iguales a 0) las
vamos a estar variando de manera implı́cita40 . Mas adelante se va a detallar
el proceso. Entonces, todas las variaciones principales que obtenemos, sobre
A y B, son:
1. Activa-Activa
2. Inactiva-Inactiva
3. Activa-Inactiva
4. Inactiva-Activa
Estas son las 4 principales etapas del problema. Ahora tenemos que ir inves-
tigando cada una.
X = 2, 4 Y = 0, 4
39
También cuentan las de X e Y mayor o igual a 0.
40
Técnicamente se están variando de manera explicita, pero esta intuición lo hace mas
fácil de entender.
55
De estos dos valores, también podemos intuir otras cosas. Como las
variables son distintas a 0, sus derivadas tienen que serlo. Esto es por
la tercera condición de las KKT. Entonces, reemplazando estos valores
en sus derivadas e igualando a 0, obtenemos que:
)
−3, 2 − 2λ1 + 3λ2 = 0
−7, 2 − 3λ1 + 12λ2 = 0
λ1 = − 28
55
λ2 = 8
11
• (X; Y ) = (0; 0)
• (X; Y ) = (> 0; 0)
• (X; Y ) = (0; > 0)
• (X; Y ) = (> 0; > 0)
56
sean mayor a 0. Acá, por la tercera columna, vemos que si ambas son
distintas a 0, sus derivadas tienen que ser igual a 0. Despejando de este
sistema de ecuaciones (el de el lagrangiano derivado con respecto a X
y con respecto a Y igual a 0), nos queda que los posibles valores son
(4; 4). Sin embargo, si reemplazamos estos valores en la desigualdad
de Lλ2 vamos que nos da −48 ≥ 0 cosa que es falso. Es por esto, que
concluimos que se trata de un absurdo. Entonces, proseguimos a la
siguiente etapa sin ningún punto crı́tico.
57
0. Entonces, obtenemos el siguiente sistema:
2X − 8 + 3λ2 = 0
2Y − 8 + 12λ2 = 0
−3X + −12Y + 12 = 0
Este punto, es el único que cumple con las KKT. Por lo tanto, es el
único punto critico que pudimos obtener. Sin embargo, va a ser punto
critico si y solo si las restricciones califican (de no calificar, no se podrı́a
concluir nada, ya que las KKT no serı́an condición necesaria).
Conceptos a tener en cuenta:
Anteriormente, se desarrollo como es un ejercicio tı́pico de optimización no
lineal con restricciones de no negatividad de las variables. Sin embargo,
pueden darse algunos que otros casos diferentes:
1. El primer caso, es que ninguna variable de la función objetivo tenga
una restricción de no negatividad41 . En este caso, las derivadas del
Lagragiano con respecto a las variables de la función objetivo, van a
ser iguales a 0. Esto se debe a que, vamos a estar optimizando en todo
el dominio de las variables.
2. Otro caso posible, parecido al primero, es que algunas variables si ten-
gan restricción de no negatividad y otras no. En este caso, las derivadas
del Lagragiano con respecto a las variables sin restricción de no neg-
atividad, van a estar igualadas a 0, y las que si tengan restricción,
van a estar con la desigualdad correspondiente a si es un problema de
maximización o minimización.
3. Por último, nos podemos encontrar con una situación que sea Xi ≥ K
donde K 6= 0. Esta restricción, la vamos a tener que incluir en el
Lagrangiano. Y la derivada de este con respecto a Xi va a estar igualada
a 0. Este es un termino adicional en el Lagrangiano. Cuando derivemos
el mismo por su lambda correspondiente, nos tiene que quedar igual que
la restricción de la consigna42 .
De esta forma, concluye la primera parte de la materia.
41
Esto serı́a que no este el mayor o igual a 0.
42
Esto lo digo debido a que a mi me pasaba que me equivocaba en esto. Tenı́a la
58
10 Ecuaciones Diferenciales
10.1 Teorı́a
Una ecuación diferencia es una ecuación del siguiente tipo:
F (t; y; y 0 ; y 00 ; ...; y k ) = 0
Donde:
d2 Y dk Y
Y = Y (t) Y 0 = dY
dt
Y 00 = dt2
... Y k = dtk
Y 0 = F (t; y) Y (t0 ) = y0
59
solución para el problema para todo t ∈ I. Además, si f es continuamente
diferenciable (en al menos un punto) en (t0 ; y0 ) entonces la solución para el
problema es única43 .
Para solucionar un problema de ecuaciones diferenciables, lo dividimos en
dos partes. Partiendo del siguiente problema:
ar2 + br + c = 0
60
1. La solución a este problema es la siguiente:
Y (t) = C1 er1 t + C2 er2 t
Se demuestra ya que las diferentes r son raı́ces de la ecuación carac-
terı́stica, y por lo tanto son soluciones de la ecuación diferencial. Como
esta es lineal, la suma de ambas soluciones también lo es.
a(y1 +y2 )00 +b(y1 +y2 )0 +c(y1 +y2 ) = (ay100 + by10 + cy1 ) + (ay200 + by20 + cy2 ) = 0
| {z } | {z }
=0 =0
61
3. Cuando las raı́ces son complejas, se escriben como r1;2 = α ± iβ y la
solución es:
Y (t) = eαt (C1 cos βt + C2 sin βt)
Como las raı́ces son distintas:
Entonces:
e(α+iβ)t = eαt (cos βt + i sin βt)
e(α−iβ)t = eαt (cos βt − i sin βt)
Y (t) = C1 eαt (cos βt + i sin βt) + C2 eαt (cos βt − i sin βt)
eαt (C1 cos βt + C2 sin βt)
Como:
00 0
a(y ∗ −yp )00 +b(y ∗ −yp )0 +c(y ∗ −yp ) = (ay ∗ +by ∗ +cy ∗ )−(ayp00 +byp0 +cyp ) = 0
62
• si h(t) es un polinomio de grado j entonces se ensaya un polinomio
j
Ai tj
X
completo degrado j en t : yp(t) =
i=0
Entonces:
63
• Si r1 > 0, entonces lim y(t) = ∞
t→∞
• Si r1 = 0, entonces lim y(t) = C1
t→∞
• Si r1 < 0, entonces lim y(t) = 0. En este caso, serı́a estable.
t→∞
i=1
C2 y
lim C2 tert = lim =0
t→∞ t→∞ e−rt
...
m−1 rt Cm tm−1 (m − 1)!Cm
lim Cm t e = lim −rt
= ... = lim =0
t→∞ t→∞ e t→∞ (−r)m−1 e−rt
Por lo tanto, en el caso en que hay raı́ces reales y repetidas también
es necesario y suficiente que las raı́ces sean negativas para que la
solución sea estable.
64
4. Finalmente, si existen m pares de raı́ces complejas iguales entonces la
solución tiene la forma:
m
y(t) = eαt ti−1 (C2i−1 cos βt + C2i sin βt)
X
i=1
Si α < 0 entonces:
lim y(t) = 0
t→∞
10.2 Practica
Si bien la teorı́a parece medio rebuscada, al momento de hacer los ejercicios
es bastante directo. A continuación, se van a desarrollar dos ejercicios.
Ejercicio 1, inciso D:
Encontrar la solución general de la siguiente ecuación diferencial e indicar si
es estable o no.
y IV + 8y 000 + 24y 00 + 32y 0 + 16y = 0
Primero, tenemos que encontrar el polinomio caracterı́stico de esta ecuación.
Esto, según la teorı́a, se harı́a reemplazando cada y por un guess (derivando el
guess y reemplazando donde sea correcto). Sin embargo, podemos adelantar
este proceso. Los coeficientes del polinomio van a ser los mismos de los de la
ecuación diferencia. Mas claramente:
r1 = −2 r2 = −2 r3 = −2 r4 = −2
e−2x [C1 + C2 x + C3 x2 + C4 x3 ]
Notese, que esta es la solución porque la raı́z esta repetida. ¿Por qué agreg-
amos un X multiplicando el algunos términos? Por que es necesario para
65
romper la dependencia lineal. En otras palabras, también es necesario que
nos queden 4 constantes de integración (Ci ). Y en el caso de no agregarlas,
se podrı́an simplificar.
En este caso, la ecuación diferencial es estable ya que su raı́z mas grande es
negativa44 .
Ejercicio 2, inciso A:
Encontrar la solución general de la siguiente ecuación diferencial e indicar si
es estable o no.
y 000 − 4y 0 = 3e2x
En este caso, el polinomio caracterı́stico nos quedarı́a:
r3 − 4r = 0
Notese que esto se debe a que, como dije antes, que va a ser igual a los
coeficientes de la ecuación diferencial. Por lo tanto, las raı́ces son:
r1 = −2 r2 = 0 r3 = 2
yh = C1 e−2x + C2 e2x + C3
Ȳ = Ae2x X
66
de la ecuación diferencial, y vamos a reemplazar en la misma la derivada
respectivamente.
Y¯ 0 = Ae2x (1 + 2x)
Y¯00 = 2Ae2x (2 + 2x)
Y¯000 = 4Ae2x (3 + 2x)
Reemplazando:
8Ae2x = 3e2x
3
A=
8
Por lo tanto, la solución particular es:
3
Yp = e2x X
8
Y la solución general:
3
Yg = Yh + Yg = C1 e−2x + C2 e2x + C3 + e2x X
8
67
y 0 (t) − x(t) = 0
Este mismo procedimiento también es válido para convertir una ecuación
diferencial de orden n en un sistema de n ecuaciones diferenciales de primer
orden.Por esta razón al estudiar sistemas de ecuaciones diferenciales nos va-
mos a concentraren aquellos que contengan ecuaciones diferenciales de primer
orden.
Ahora, vamos a ver otro método. Para esto, dividimos el problema en dos.
La parte homogénea y la particular. Primero, busquemos la resolución de
sistemas homogéneos lineales por autovalores 46 .
Considerando el siguiente sistema de n ecuaciones diferenciales de primer
orden:
y10 (t) = a11 y1 (t) + ... + a1n yn (t)
...
yn0 (t) = an1 y1 (t) + ... + ann yn (t)
Que escrito de forma matricial queda como:
Y 0 = AY
Si A es diagonalizable, entonces la solución al sistema de ecuaciones es:
y(t) = C1 X 1 eλ1 t + ... + Cn X n eλn t
Se demuestra a partir que A es una matriz diagonal (solo tiene elementos en
su diagonal principal), por lo que es un sistema de n ecuaciones independi-
entes entre si, cuya solución es:
y1 (t) = C1 ea11 t ... yn (t) = Cn eann t
Como los autovalores de una matriz diagonal son los elementos de la diagonal,
la solución puede escribirse:
C 1 e λ1 t
y1 (t)
... = ...
yn (t) C n e λn t
Ahora demostramos que si es diagonal, la solución era esa. Sin embargo, si
no es diagonal buscamos diagonabilizarla:
P −1 AP = Λ
46
Repasar autovalores y autovectores.
68
Para esto aplicamos un cambio de variables tal que Z = P −1 y. Si derivamos
con respecto a t y operamos:
Z 0 = P −1 y 0 = P −1 Ay
= P −1 AP z = ΛZ
Como Λ es una matriz diagonal, el sistema queda:
Z10 = λ1 z1
...
Zn0 = λn zn
Cuya solución es:
C 1 e λ1 t
z1 (t)
... = ...
zn (t) C n e λn t
Deshaciendo el cambio de variables:
λ1 t
y1 (t) h i C1 e
1 n
... = X ... X ...
λn t
yn (t) Cn e
En otras palabras:
69
más conveniente usar la matriz de operadores G(D) ya que cuando el sistema
tiene ecuaciones de orden mayor a1no hace falta añadir variables adicionales.
Cuando la matriz A no es diagonalizable: hará un autovalor con orden de
multiplicidad m para el cual no es posible encontrar m vectores LI. Se debe
proceder ensayando la solución eλi t multiplicada por un vector de polinomios
completos de grado (m-a), donde a es la cantidad de autovectores LI que
pudieron obtenerse del autovalor.
Cuando se resuelve el sistema por el método de autovalores no se debe multi-
plicar por t cuando hay raı́ces repetidas, a diferencia de lo que ocurrı́a cuando
se resolvı́an ecuaciones diferenciales.
Hasta ahora resolvimos un sistema de ecuaciones diferenciales homogéneos.
Para pasar a la parte no homogénea:
...
yn0 (t) − an1 y1 (t) − ... − ann yn (t) = hn (t)
O escrito de forma matricial:
G(D)Aebt = kebt
G(b)Aebt = kebt
70
A = G(b)−1 k
Y reemplazando las constantes en la solución:
Yp (t) = G(b)−1 kebt
se llega a la solución particular, siempre que b no sea raı́z de la ecuación
caracterı́stica. Tener en cuenta, que si H(t) es la suma de funciones
exponenciales con distintos exponentes entonces se separa en términos
con igual exponente y se encuentra la solución particular para cada uno
de ellos.
• Si H(t) es una función seno o coseno con ángulo φt entonces se plantea
Yp (t) = A1 sin(φt) + A2 cos(φt) y se despejan los vectores constantes.
• Si H(t) es un polinomio de grado n entonces se ensaya un polinomio
completo de grado n y se despejan las constantes. Si 1 es raı́z de
la ecuación caracterı́stica con orden de multiplicidad m entonces el
polinomio a ensayar debe tener grado n+m.
Diagrama de fase:
Esta herramienta es un gráfico que sirve para hacer análisis cualitativo de sis-
temas de dos ecuaciones diferenciales de primer orden no lineales autónomas.
Vamos a tratar de hacer un ”Slope Field” 47 .
x0 (t) = f (x; y)
y 0 (t) = g(x; y)
Para construirlo, tenemos los siguientes pasos:
1. Se grafican las curvas de demarcación x0 = 0 y y 0 = 0.Si se conoce
la forma funcional de f (.) y g(.) entonces se pueden graficar directa-
mente. Si no se conocen entonces se puede aproximar el gráfico con las
derivadas. Por el teorema de la función implı́cita:
dy Fx
=−
dx x0 =0
Fy
dy Gx
=−
dx y 0 =0
Gy
47
Una muy buena ayuda para este tema, es ver el vı́deo del YouTuber ”3Blue1Brown”,
en el que muestra mas gráficamente a lo que nos referimos.
71
2. Se determina la dirección de x a ambos lados de la curva de demarcación
x0 = 0 a partir de la derivada (cualquiera de las dos):
∂X 0 ∂X 0
∂X
= Fx ∂y
= Fy
72
y 0 = g(x̄; ȳ) + gy (x̄; ȳ)(y − ȳ) + gx (x̄; ȳ)(x − x̄)
Como f (x̄; ȳ) = g(x̄; ȳ) = 0
73
Raices Caso Det(A) Tr(A) Equilibrio
+ - Nodo Estable
Reales Distintas T r(A)2 > 4Det(A) + + Nodo Inestable
- +;0;- Punto de Ensilladura
+ - Nodo Estable
Reales Iguales T r(A)2 = 4Det(A)
+ + Nodo Inestable
+ - Foco Estable
Reales Imaginarias T r(A)2 < 4Det(A) + + Foco Inestable
+ 0 Vórtice
11.2 Practica
En este apartado, vamos a tratar de cubrir la mayorı́a de los tipos de ejerci-
cios que nos podemos encontrar. Empecemos.
Ejercicio 3:
Este ejercicio nos pide hallar la ecuación caracterı́stica, la solución general,
analizar la estabilidad y el diagrama de fase de la siguiente ecuación carac-
terı́stica: )
X 0 = X + 2Y
Y 0 = 4X + 3Y
74
Primero, vamos a tener que armar la matriz de operadores. Recordando la
teorı́a, esta se define como |A − DI|(−1). Sin embargo, para esto primero
tenemos que definir la matriz A. Esta es una matriz que tiene como compo-
nentes, los coeficientes del sistema de ecuaciones diferenciales escrito como se
muestra arriba. Esto es, la derivada de la variable igual a las otras variables.
Entonces: " #
1 2
A=
4 3
Por lo tanto, el determinante de la matriz de operadores:
D − 1 −2
G[D] =
−4 D − 3
Desarrollando:
G[D] = D2 − 4D − 5
Esto es la ecuación caracterı́stica del problema48 . Las raı́ces son:
D1 = −1 ∧ D2 = 5
Ahora, hay que buscar los autovectores de cada autovalor. Primero, busque-
mos el de −1: " # " #
−1 − 1 −2 −2 −2
=
−4 −1 − 3 −4 −4
Realizando el método de la Adjunta:
" #
−4 4
Adj =
2 −2
Elegimos una columna y simplificamos sus valores:
" # " #
1 2 1
X = =
−2 −1
75
Realizando el método de la Adjunta:
" #
2 2
Adj =
4 4
X 0 = 0 → 2Y + X = 0 → Y = − 21 X
Y 0 = 0 → 4X + 3Y = 0 → Y = − 34 X
76
izquierda. Esto va a ser de mas importancia mas adelante.
Simétricamente, hacemos lo mismo para la siguiente derivada:
∂Y 0
=4
∂X
Como es positiva, nos dice que a la derecha de la curva de demarcación
(Y 0 = 0) va a estar creciendo y a la izquierda decreciendo. Es por esto, que
marcamos con el signo + a la derecha de la misma y con el signo − a la
izquierda.
Sumando todo al mismo gráfico, podemos dibujar las flechas de las tendencias
en base a esta información. Por cada sector, vamos a tener un par de flechas.
Los signos (− o +) de la curva de demarcación de X, nos van a decir las
flechas horizontales (hacia la derecha si es un mas o hacia la izquierda si es
un menos). Y los signos (− o +) de la curva de demarcación de Y, nos van
a decir las flechas verticales (hacia la arriba si es un mas o hacia la abajo si
es un menos).
Ası́ es como hicimos el diagrama de fase.
Ejercicio 4:
Hallemos la solución del siguiente sistema de ecuaciones diferenciales:
)
X 00 − X − 2Y = e2t
Y 0 + X + 2Y = 3et
Lo primero que nos llama la atención, es que este sistema no es de primer
orden. Sin embargo, se puede resolver muy fácil. El problema escrito de una
forma diferente: " # " # " #
X 0 t 1
G[D] = e + e2t
Y 3 0
Entonces nuestro primer paso, es hallar la solución para el sistema ho-
mogéneo. " # )
X X 00 − X − 2Y = 0
G[D] =0
Y Y 0 + X + 2Y = 0
Armando la matriz de operadores (|A − DI|(−1)) llegamos a la siguiente:
D2 − 1 −2
1 D+2
Notemos que el primer D esta al cuadrado debido a que la primera ecuación
del sistema es de orden dos. Resolviendo el determinante:
D3 + 2D2 − D = 0
77
√ √
D1 = 0 ∧ D2 = −1 + 2 ∧ D3 = −1 − 2
Buscando los tres autovectores:
" # " #
−1 −2 2 2
→ Adj =
1 2 −1 −1
" #
1 2
X =
−1
" √ # " √ #
−1 + 2−1 −2
√ −1 + 2 + 2 −2
√
→ Adj =
1 −1 + 2 + 2 1 −1 + 2 − 1
" √ #
2 −1 + 2+2
X =
1
" √ # " √ #
−1 − 2−1 −2
√ −1 − 2+2 −2
√
→ Adj =
1 −1 − 2 + 2 1 −1 − 2 − 1
" √ #
3 −1 − 2+2
X =
1
Por lo tanto, la solución homogénea es:
" #h " # " √ # " √ #
X0 2 0t −1 + 2+2 √
(−1− 2)t −1 − 2 + 2 √
= C1 e +C2 e +C3 e(−1+ 2)t
Y0 −1 1 1
78
" #−1 " # " #
0 −2 0 3
=
1 3 3 0
Y para el otro termino: " #
1
G−1
[2] =
0
" #−1 " # " #
1 −2 1 2/7
=
1 4 0 −1/14
Entonces, la solución particular:
" #p " # " #
X0 3 2/7
= et + e2t
Y0 0 −1/14
Por lo tanto, la solución general:
" #g " #h " #p
X0 X0 X0
= +
Y0 Y0 Y0
12 Control Óptimo
12.1 Teorı́a
En los problemas de optimización que vimos hasta ahora el objetivo era
encontrar un valor para cada variable tal que la función objetivo resulte
maximizada. Estos problemas eran estáticos ya que el tiempo no intervenı́a.
Por el contrario, en optimización dinámica vamos a contemplar un horizonte
de planeamiento y buscar los valores para cada momento del tiempo que
maximizan la función objetivo. El resultado no es un valor, sino muchos
(infinitos) para cada momento del tiempo, es decir, una función del tiempo.
El problema canónico de optimización dinámica en tiempo continuo es el
siguiente:
dy(t)
≡ Y 0 (t) = g(t; y; u)
dt
Z t1
Y (t0 ) = y0
M ax F (t; Y (t); u(t))dt sa
u(t) t0 Y (t1 ) = y1
u(t) ∈ U ∀t ∈ [t0 ; t1 ]
79
que se denomina variable de control, que maximice dicho funcional. Pero
la funcional también depende de y(t), la variable de estado, que se ve al-
terada por u(t) mediante la ecuación de movimiento g(.).
La variable de estado y(t) constituye una descripción completa de la posición
del sistema en el momento t, ya que incorpora la sucesión de todos los val-
ores de la variable de estado y de control que ocurrieron hasta ese momento
{y(s), u(s)}tt−1
0
Hay tres métodos para resolver este tipo de ejercicios:
• Calculo de variaciones
• Programación dinámica
• Mu(t)
ax H(t; u; y; λ)
• Y0 = ∂H
∂λ
• λ0 = − ∂H
∂y
49
Notese, que se forma diferente al Lagrangiano. Acá, la función que multiplica al λ no
se le cambia el signo cuando este va sumando.
80
Si u(t) no está restringida entonces la primer condición se puede reemplazar
por Hu0 = 0 y Huu 00
< 0.
La segunda condición re-expresa la ecuación de movimiento. Las ecuaciones
2 y 3 forman un sistema de dos ecuaciones diferenciales de primer orden.
Además, existe cierta simetrı́a entre las dos condiciones.
Definimos el Teorema de Mangasarian:
Las condiciones de primer orden del principio del máximo son también sufi-
cientes para un máximo global si:
1. λ∗ (t1 ) = 0
2. H(t1 ; u∗ ; y ∗ ; λ∗ ) = H ∗ |t=t1 = 0
81
Las condiciones de transversalidad constituyen, junto con las condiciones del
principio del máximo, condiciones necesarias para la existencia de un máximo
local.
El problema de control óptimo es autónomo cuando la variable t no está en
la función objetivo ni en la ecuación de movimiento:
dy(t)
≡ Y 0 (t) = g(y; u)
dt
Z t1
Y (t0 ) = y0
M ax F (Y (t); u(t))dt sa
u(t) t0 Y (t1 ) = y1
u(t) ∈ U ∀t ∈ [t0 ; t1 ]
• Mu(t)
ax Hc (u; y; µ)
• Y0 = ∂Hc
∂µ
• µ0 = − ∂H
∂y
c
+ rµ
82
una sola condición inicial k(0) = k0 , nos falta una condición más... En reali-
dad no. La otra condición que necesitamos es la condición de transversalidad,
que en el caso de un problema de horizonte infinito es:
lim λ(t)k(t) = 0
t→∞
Sin embargo, esta condición no es válida para todos los problemas de control
óptimo con horizonte infinito, sino en aquellos en los que U (c) es cóncava,
el tiempo solo afecta a través del factor de descuento y se cumplen algunos
supuestos técnicos adicionales. Solo se nombra para futuros cursos, no para
uso practico en este.
12.2 Practica
A continuación, se procederá a realizar paso por paso 4 ejercicios presentando
diferentes casos a analizar.
Ejercicio 1:
Dado el siguiente problema:
Y0 =y+u
Z 1
2
max −u dt sa y(0) = 1
0
y(1) ≥ 3
Se pide:
1. Escribir el Hamiltoniano y expresar las condiciones que surgen del prin-
cipio del máximo
83
1. El primer punto, generalmente es el mas fácil. Planteando la función:
∂H
∂λ
=Y0 (2)
− ∂H
∂y
= λ0 (3)
84
2. Este en un principio puede ser el problema mas difı́cil. Primero tenemos
que ver si encontramos una ecuación diferencial que podamos resolver.
Encontramos la siguiente:
λ0 = −λ
λ0 + λ = 0
Esto se puede resolver como una ecuación diferencial homogena. Lo
único que tenemos que hacer es encontrar la raı́z del problema y el
resultado serı́a el siguiente:
λ∗ (t) = C1 e−t
Y0 =y+u
Que re expresada:
y0 − y = u
C1 e−t
y0 − y =
2
Este, es otra ecuación diferencial, la cual se puede resolver fácilmente
(hay que encontrar la solución general, esto es la homogénea mas la
particular). La resolución esta a cargo del lector ya que: (i) es buena
practica y (ii) es un tema de otro apartado explicado en este resumen.
C1 −t
Y ∗ (t) = C2 et − e
4
85
es el siguiente: primero probamos que λ(t1 ) = 0 y si los valores re-
sultantes de esta prueba satisfacen y(t1 ) ≥ ymin , terminamos el ejer-
cicio. En cambio, de no satisfacerlo, tenemos que realizar el ejercicio
probando y(t1 ) = ymin . Si o si alguna se va a cumplir debido a la ter-
cera condición50 .
Si λ(1) = 0 podemos ver que:
λ∗ (1) = C1 e−1
C1
λ(1) = =0
e
Por lo tanto el único valor posible para C1 es igual a 0.
Y también sabemos que Y (0) = 1
C1 −0
Y ∗ (0) = C2 e0 − e =1
4
C1
Y (0) = C2 − =1
4
Y (0) = C2 = 1
Verificando si cumple con Y (1) ≤ 3 vemos lo siguiente:
Y (1) = e1 = e
y(0) = 1 ∧ y(1) = 3
Entonces, nuestra solución final van a ser las funciones óptimas con las
constantes reemplazadas:
12e − 4e2 e−t
u∗ (t) =
e2 − 1 2
50
Hay una cierta simetrı́a con respecto a las KKT. Entender bien ese tema
metodológicamente puede ayudar a entender este tema.
86
2
12e−4e
12e − 4e2
" # !
Y ∗ (t) = 1 + /4 e t
− e2 −1 e−t
e2 − 1 4
12e − 4e2
" # !
∗
λ (t) = 1 + /4 e−t
e2 − 1
Ejercicio 2:
Dado el siguiente problema de maximización:
K 0 = ln(k) − c − k
Z ∞
−γt
max ln(Ac)e dt sa k(0) = 0
0
{c; γ} > 0
Se pide:
Hc = ln(Ac) + µ [ln(k) − c − k]
87
La tercera:
∂Hc 1
− + γµ = µ γ + 1 − = µ0
∂k k
Estas son las tres ecuaciones del principio del máximo. Es muy impor-
tante recordar que a la tercera, por ser un Hamiltoniano Corriente, se
le va a sumar otro termino.
K 0 = ln(k) − c − k
88
3. En este apartado nos cambian las curvas de demarcación. Ahora, K 0
va a ser:
K 0 = ln(k) − c + k
Y las curvas van a ser:
1
K=
1+γ
C = ln(k) + k
Para hacer el diagrama de fase, vamos a ver las derivadas cruzadas51 .
Encontramos lo siguiente:
∂C 0 c
=− 2 <0
∂K k
∂K 0
= −1 < 0
∂c
En base a esta información, podemos armar el siguiente gráfico:
51
Usamos estas ya que recordando, estas derivadas no nos sirven si es que dan 0 o
infinito.
89
Ejercicio 3:
Dado el siguiente problema:
K0 = I
Z ∞
k(0) = K0
max e−pt [αK − βK 2 − aI − bI 2 ]dt sa
0
{α; β; a; b} > 0
α/p > a
Se pide:
Hc = αK − βK 2 − aI − bI 2 + µI
Donde µ = λept
90
Y la tercera nos queda:
3. Para encontrar el equilibrio del sistema, vamos a tener que ver las curvas
de demarcación, igualarlas a 0 y despejar una variable para graficar.
Sin embargo, nos encontramos con algo particular con la primera curva
de demarcación:
K0 = 0 = I
Esto quiere decir que toda I va a valer 0 (va a ser una linea horizontal
recta). Entonces podemos reemplazar esto en la segunda curva de
demarcación:
ap − α βK
I0 = 0 = − +
2b b
α − ap
K=
2β
Esta segunda curva de demarcación no depende de ninguna variable.
Entonces va ser una linea vertical recta.
Con esta información, se puede hacer el diagrama de fase.
Ejercicio 4:
91
Sabiendo que µ = λrt Las condiciones del principio del máximo:
∂Hc
: U 0 (c) − µ = 0
∂c
µ = U 0 (c)
La segunda:
∂Hc
: φ(k) − c − (n + γ)K = K 0
∂µ
La tercera:
∂Hc
− + rµ : −µ[φ0 (k) − (n + γ)] + rµ = µ0
∂K
µ0 = µ[φ0 (k) − (n + γ + r)]
Pero como somos intensos, no queremos ver la ecuación diferencial en términos
de µ. Ası́ que, vamos a ir derivando la primera condición para poder reem-
plazarla en la tercera:
µ = U 0 (c)
µ0 = U 00 (c)
U 00 (c)c0 = U 0 (c)[φ0 (k) − (n + γ + r)]
U 0 (c) 0
c0 = [φ (k) − (n + γ + r)]
U 00 (c)
Esta última ecuación, junto a la siguiente, son las dos curvas de demarcación
que queremos:
K 0 = φ(k) − c − (n + γ)K
Igualando a 0 y despejando una variable:
c = φ(k) − (n + γ)K
92
Va a empezar con una pendiente positiva, hasta que se vuelve 0 y después
va a tener una pendiente negativa.
Y la segunda:
U 0 (c)
0 = 00 [φ0 (k) − (n + γ + r)]
U (c)
Notese, que para que esto sea 0, el corchete tiene que ser 0. Esto se debe a
que, por supuesto de la consigna, las derivadas de U (c) son mayores/menores
estrictas a 0. Entonces:
φ0 (k) − (n + γ + r) = 0
Esta va a ser una una linea vertical ya que es independiente de c.
13 Ecuaciones en Diferencias
13.1 Teorı́a
Sea yt una sucesión de valores y0 ; y1 ; y2 ; ...; yn que están indexados por la
variable t, que representa el tiempo en forma discreta. Se define a la diferencia
primera de yt como:
4yt = yt+1 − yt
La diferencia segunda es:
42 = 4(4yt ) = 4(yt+1 − yt ) = yt+2 − yt+1 − (yt+1 − yt ) = yt+2 − 2yt+1 + yt
La diferencia tercera:
43 = 4(yt+2 − 2yt+1 + yt ) = yt+3 − 3yt+2 + 3yt+1 − yt
La diferencia (4) es un operador que aplicado a cualquier función de variable
entera indica que debe restarse el valor de la función en ese perı́odo del valor
en el siguiente perı́odo:
4f (t) = f (t + 1) − f (t)
Como: n n
k1 yti = k1 4yti
X X
4
i=1 i=1
el operador diferencia es un operador lineal. Además del operador diferencia
existe otros operadores:
93
• Operador desplazamiento: Eyt = yt+1
4=E−I
4n = (E − I)n
Una ecuación en diferencias es una relación funcional del tipo
Al igual que con las ecuaciones diferenciales, toda ecuación en diferencias lin-
eal de orden n tiene solución única dadas n condiciones iniciales. El método
de resolución también es similar. Para resolver una ecuación en diferencias
94
homogénea se propone un guess y se calcula las raı́ces del polinomio carac-
terı́stico:
ayt+2 + byt+1 + cyt = 0
Se propone: (
t yt+1 = rCrt
yt = Cr →
yt+2 = r2 Crt
t 2
Cr
|{z}(ar + br + c) = 0
6=0
Y (t) = C1 rt + C2 trt
Finalmente:
Y (t) = pt (C1 cos ωt + C2 sin ωt)
95
Que luego de reemplazar en la ecuación diferencial permite sacar factor
común y resolver la ecuación caracterı́stica. Similarmente, para ecuaciones
en diferencias:
4rt Es proporcional rt
96
Se demuestra: Cuando las raı́ces (reales o complejas) son distintas, los términos
de la solución de la homogénea tienen la siguiente forma:
Ci rit
Ci tj rit ,
13.2 Practica
Ejercicio 1:
Dado el siguiente problema, hallar la solución general del problema, con-
siderando que P (0) = P̄ y que B < D.
Qdt = Qst
Qdt = A − BPt
Qst = −c + DPt−1
A − BPt = −c + DPt−1
BPt + DPt−1 = A + C
Sin embargo, ası́ como esta el problema no lo podemos resolver. Tenemos que
llevar la variable en el menor tiempo, a t. Para esto, usamos el operador de
desplazamiento. Básicamente, nos movemos para que Pt−1 este en Pt , pero
97
cuando movemos esta variable en el tiempo, hay que tener en cuenta que se
mueven las demás. Estas nos quedan:
BPt+1 + DPt = A + C
Br + D = 0
D
r=−
B
D t
Pth
= C1 −
B
Y como sabemos por consigna que B < D, sabemos que esta raı́z es mayor a 1.
Por o tanto, este sistema es inestable. Para la solución completa, proponemos
una particular. En este caso, tenemos que proponer un polinomio del mismo
orden del termino A + C (orden igual a 1). Por lo que:
Ptp = K
Aplicando la diferencia:
p
Pt+1 =K
Cuidado que acá, habrı́a que reemplazar cada t, por t + 1, pero al ser una
constante, no se reemplaza por nada. Reemplazando las diferencias en la
ecuación original:
BK + DK = A + C
K(B + D) = A + C
A+C
Ptp = K =
D+B
Entonces la solución general es:
t
D A+C
Ytg = C1 − +
B D+B
Acá, tenemos otra condición en la consigna que nos dice P (0) = P̄ . Aplicándola:
0
D A+C
P0g = P̄ = C1 − +
B D+B
98
A+C
C1 = P̄ −
B+C
Por lo tanto, la solución final es:
t
A+C D A+C
Pt∗ = P̄ − − +
B+C B D+B
Ejercicio 2:
Dado el siguiente problema, hallar la solución general del problema:
2Yt+2 − 9Yt+1 + 18Yt = 2t
Primero, buscamos la solución homogénea planteando la ecuación carac-
terı́sticas y buscando las raı́ces.
2r2 − 9r + 18 = 0
Usando la resolvente, encontramos que:
√ √
9 3 7 9 3 7
r1 = 4
+ 4
i ∧ r2 = 4
− 4
i
Como son raı́ces imaginarias, la solución homogénea es:
ω = arctan(β/α) = 0, 72273
q
p= α2 + β 2 = 3
Y h = 3t (C1 cos 0, 72273t + C2 sin 0, 72273t)
Para la solución particular, proponemos un termino y diferenciamos:
Ytp = A2t
p
Yt+1 = A2t+1 = 2A2t
p
Yt+2 = A2t+2 = 4A2t
Reemplazando en la ecuación en diferencias:
2(4A2t ) − 9(2A2t ) + 18(A2t ) = 2t
8A = 1
1
A=
8
2t
Ytp =
8
Entonces la solución general es:
2t
Ytg = 3t (C1 cos 0, 72273t + C2 sin 0, 72273t) +
8
99
14 Sistema de Ecuaciones en Diferencias
14.1 Teorı́a
Al igual que en sistemas de ecuaciones diferenciales; los sistemas de ecua-
ciones en diferencias se pueden resolver despejando las ecuaciones o medi-
ante diagonalización. También es cierto que todo sistema de n ecuaciones en
diferencias es equivalente a una ecuación en diferencias de orden n.
Para resolver un sistema de ecuaciones en diferencias por sus autovalores se
procede igual que con los sistemas de ecuaciones en diferencias, con la única
salvedad de que los autovalores no van en el exponente de e sino que van
elevados a la t.
La solución homogena, se puede plantear generalizada como:
G(E)Abt = kbt
G(b)Abt = kbt
A = G(b)−1 k
Y reemplazando las constantes en la solución:
Yp = G(b)−1 kbt
100
Se llega a la solución particular, siempre que b no sea raı́z de la ecuación
caracterı́stica. Si Ht es la suma de funciones exponenciales con distintas
bases entonces se separa en términos con igual base y se encuentra la
solución particular para cada uno de ellos.
Xt+1 = f˜(xt ; yt )
Yt+1 = g̃(xt ; yt )
4Xt = f (xt ; yt )
4Yt = g(xt ; yt )
Para graficar el diagrama de fases se siguen los mismos pasos que en sistemas
de ecuaciones diferenciales, con la única diferencia de que ahora las curvas
de demarcación serán 4Xt = 0 y 4Yt = 0.
Para analizar las trayectorias, simplemente hacemos las derivadas parciales
como en ecuaciones diferenciales.
Como un sistema de n ecuaciones en diferencia de primer orden puede conver-
tirse en una ecuación en diferencias de orden n, las condiciones de estabilidad
de un sistema son las mismas que las que se aplican a las ecuaciones. Un
sistema es estable si y solo si todas las raı́ces de la ecuación caracterı́stica
tienen módulo menor a 1. Cuando el sistema es no lineal puede linealizarse
alrededor del punto de equilibrio, y analizar la estabilidad del sistema lin-
ealizado. La condición es la misma: que las raı́ces tengan módulo menor
a 1. Este método solo sirve para analizar estabilidad local. Nótese que las
condiciones sobre el determinante y la traza de la matriz jacobiana que se
usaban en sistemas de ecuaciones diferenciales ya no son válidas.
Para determinar la estabilidad global de un sistema no lineal tenemos con el
101
teorema de Liapunov:
Teorema: Consideremos el sistema de ecuaciones en diferencias no lin-
eales autónomo Yt+1 = f (yt ) y sea Ȳ el equilibrio. Este es globalmente
estable en sentido asintótico si y solo si existe una función escalar continua
V = V (Y − Ȳ ) tal que:
14.2 Practica
Ejercicio 1:
Sea el siguiente modelo, hallar la solución:
)
Xt+1 − Xt − 12Yt = 6
Xt + Yt+1 + 6Yt = 9
E 2 + 5E + 6 = 0
102
Estos son los autovalores de la matriz. Buscando los autovectores correspon-
dientes: " # " #
1 4 2 3
X = ∧ X =
−1 −1
Por lo tanto, la solución homogénea es:
" #h " # " #
Xt 4 t 3
= C1 (−2) + C2 (−3)t
Yt −1 −1
E 4 + 8E 2 − 9 = 0
Para encontrar las raı́ces, bajamos el grado del polinomio. Terminamos en-
contrando que:
E1 = 1 ∧ E2 = −1 ∧ E3 = 0 + 3i ∧ E4 = 0 − 3i
103
Buscando los autovectores, vamos a encontrar que va a ser el mismo para los
autovalores que solo cambian en el signo ya que la E esta elevada al cuadrado.
Por lo tanto, tenemos que:
" # " # " # " #
1 1 1 2 7 7
X = ∧ X = ∧ X3 = ∧ X4 =
−1 −1 3 3
√ π
A su vez, definiendo a P = α2 + β 2 = 3 y a ω = arctan(β/α) = 2
,
definimos a la solución homogénea como:
" #h " # " # " #
Xt 1 1 7 π π
t t t
= C1 (1) +C2 (−1) + 3 C3 cos t + C4 sin t
Yt −1 −1 3 2 2
Para solucionar la ecuación en diferencia completa, vemos que están igualados
a un vector de constantes. Sin embargo, 1 es raı́z de la ecuación caracterı́stica.
Por lo tanto la resolución cambia. Tenemos que proponer un polinomio
completo de grado n + m, osea de grado 0 + 1 = 1.
" #
A1 t + B1
Ytp =
A2 t + B2
104
Y el otro sistema que nos queda es:
)
2A1 + 7B1 + 7B2 = 4 3
B1 = −B2 +
2A2 + 3B1 + 3B2 = −1 10
Si elegimos un número arbitrario para una variable, como B2 = 0, nos
quedan:
3
B2 = 0 ∧ B1 = 10 ∧ A1 = 19
20
∧ A2 = − 19
20
15 Programación Dinámica
15.1 Teorı́a
Como hacı́amos en control óptimo, acá vamos a estar buscando funciones
discretas que nos maximicen según el tiempo donde nos encontremos. Este
tema puede ser un poco confuso al principio entonces se va a ir analizando
la teorı́a con ejemplos prácticos. Posteriormente, se tendrá como siempre la
sección practica. Empecemos.
Los problemas a los que nos vamos a enfrentar son del estilo:
T
X Yt+1 = g(t; yt ; ut )
M ax F (t; yt ; ut ) sa y0
ut ;Yt+1
ut ∈ U ∀t ∈ {0; 1; ...; T }
t=0
En este caso, las condiciones de primer orden van a ser las derivadas par-
ciales todas igualadas a 0. Van a ser 3(T + 1) ecuaciones que se resuelven
105
simultáneamente y se obtienen las sucesiones de las variables de control, de
estado y de coestado52 .
Sin embargo, a veces se nos complica usar este método por la cantidad de
ecuaciones que tendrı́amos. Existe otro método de resolución (programación
dinámica) que explota la estructura recursiva del problema y lo parte en
muchos problemas de un perı́odo. Dicho de otra forma, el agente tiene el
problema de maximizar su rendimiento presente (en el mismo periodo) y fu-
turo (en el siguiente periodo, dado por su ecuación de movimiento). Sean los
rendimientos futuros:
T
X
Js+1 = F (t; yt ; ut )
t=s+1
Sujeto a:
ys+1 = g(s; us ; ys )
Reemplazando la ecuación de movimiento en la objetivo:
h i
Js∗ (ys ) = M ax F (s; ys ; us ) + Js+1
∗
(g(s; us ; ys ))
us ;Ys+1
106
Bellman son consistentes temporalmente. Es una consecuencia de la estruc-
tura recursiva del problema, y no tiene porqué cumplirse en soluciones de
problemas más generales.
Para ver un ejemplo, planteamos el siguiente problema:
−1
TX Yt+1 = yt (1 + ut yt )
2
M ax − ut yt + ln yT sa y0 > 0
ut ;Yt+1 3
t=0
ut ≥ 0
Notemos que en la función objetivo, hay un termino que es independiente
de la sumatoria. Este siempre se encuentra en T (un periodo después de la
sumatoria). Entonces si planteamos la ecuación de Bellman de atrás para
delante, en otras palabras en el periodo T − 1, nos queda que:
2
JT∗ −1 (yT −1 ) = M ax − uT −1 yT −1 + ln yT
uT −1 ;YT 3
Acá, podemos reemplazar la ecuación de movimiento. Recuerden, que esta
esta en un periodo mas. Por lo tanto se encuentra en T. Por lo que encon-
tramos:
2
JT∗ −1 (yT −1 ) = M ax − uT −1 yT −1 + ln(yT −1 (1 + uT −1 yT −1 ))
uT −1 ;YT 3
Prosiguiendo con el ejercicio, ya armada la ecuación de Bellman, derivamos
(e igualamos a 0) con respecto a la variable de control en el tiempo que nos
encontramos:
∂JT∗ −1 2 YT −1
= − yT −1 + =0
∂uT −1 3 1 + uT −1 YT −1
Despejando la variable de control en función de la variable de estado:
1
uT −1 =
2yT −1
Esta se va a llamar Función de Polı́tica y la vamos a reemplazar en la
ecuación de Bellman del periodo correspondiente:
" #
2 1 1
JT∗ −1 (yT −1 ) = M ax − yT −1 + ln(yT −1 (1 + yT −1 ))
uT −1 ;YT 3 2yT −1 2yT −1
1 2
ln yT −1 + − − ln
| 3 {z 3}
=c
107
JT∗ −1 (yT −1 ) = ln yT −1 + C
Repetimos el proceso parea un periodo menos, osea para t = T − 2:
2
JT∗ −2 (yT −2 )
= M ax − uT −2 yT −2 + JT∗ −1
uT −2 ;YT −1 3
Que con lo que averiguamos antes nos queda:
2
JT∗ −2 (yT −2 ) = M ax − uT −2 yT −2 + ln yT −1 + C
uT −2 ;YT −1 3
Y acordándonos de la ecuación en movimiento, podemos reescribir el termino
yT −1 como:
2
JT∗ −2 (yT −2 ) = M ax − uT −2 yT −2 + ln(yT −2 (1 + uT −2 yT −2 )) + C
uT −2 ;YT −1 3
Derivando e igualando a 0, y buscando la variable de control en función de
la variable de estado:
1
uT −2 =
2yT −2
Esto lo reemplazamos en la ecuación de Bellman del mismo periodo (T − 2)
y simplificamos:
1 2
JT∗ −2 (yT −2 ) = ln yT −2 − − ln + C
3 3
JT∗ −2 (yT −2 ) = ln yT −2 + 2C
Acá podemos ver un patrón, que cumple con:
JT∗ −k (YT −k ) = ln yT −k + kC
1
uT −k (yT −k ) =
2 − yT −k
Y reemplazando la variable de control en la ecuación de movimiento obten-
emos una ecuación en diferencia de primer orden:
!
1 3yt
yt+1 = yt 1+ yt =
2yt 2
Que resolviéndola:
t
3
yt∗ = y0
2
108
Y si reemplazamos a esta variable de estado en la función de la variable de
control: t
2
3
u∗t =
2y0
Esto serı́a la resolución del problema.
Sin embargo, en muchos casos no vamos a tener un problema autónomo. Si
no, vamos a encontrarnos con un factor de descuento en la función objetivo.
Para esto volvemos a traer el concepto de función a valor corriente:
Sea la siguiente identidad :
Jt (yt )
Vt (yt ) ≡
β
Entonces se define la ecuación de Bellman con la función de valor corriente:
h i
∗
Vt∗ (yt ) = M ax F (yt ; ut ) + βVt+1 (yt+1 )
ut ;YT +1
Sujeto a:
yt+1 = g(t; yt ; ut )
Analicemos esto en un ejemplo, pero agregando una dificultad adicional. Esta
serı́a el tiempo máximo en infinito. Sea el siguiente problema:
∞
β t u(ct )
X
M ax
ct ;kt+1
t=0
Sujeto a:
kt+1 = f (kt ) − ct
La ecuación de Bellman a valor corriente serı́a:
u0 (ct ) = βV 0 (f (kt ) − ct )
La CPO contiene la derivada de la función de valor (V 0 ), lo cual no es muy
útil para resolver el problema porque no sabemos cuál es esa función. Por lo
109
que vamos a hacer una serie de despejes que nos van a facilitar la vida53 . Para
empezar, nos fijamos que la condición de primer orden define implı́citamente
a la variable de control en función de la de estado. Esto es Ct = h(Kt ). Esta
función la vamos a reemplazar en la ecuación de Bellman y derivarla:
V 0 (kt ) = h0 (kt ) [u0 (h(kt )) − βV 0 (f (kt ) − h(kt ))] +βV 0 (f (Kt ) − h(kt ))f 0 (kt )
| {z }
=0
110
Y esto es una ecuación en diferencias de segundo orden. Si la ecuación en
diferencias es lineal podemos resolverla y encontrar la trayectoria óptima del
stock de capital. Cuando la ecuación es no lineal se puede hacer un análisis
mediante diagramas de fase o linealizar la ecuación.
A veces es útil recordar la condición de transversalidad:
15.2 Practica
Si bien ya se fueron explicando algunos ejercicios prácticos, ahora se van a
explicar dos mas.
Ejercicio 1:
3
(
yt+1 = yt + ut
u2t
X
1 + yt − sa
t=0
y0 = 0
Busquemos la solución por Bellman. Primero que nada, tenemos que encon-
trar la función de Bellman. Esta es la función objetivo en el periodo t, mas
la función objetivo óptima en el periodo t+1. Por lo tanto:
Jt = 1 + yt − u2t + Jt+1
J3 = 1 + y3 − u23
Acá, no tenemos función objetivo del siguiente periodo ya que no existe valor
residual. Para resolverla, solo tenemos que derivar la función con respecto a
la variable de control e igualarla a 0.
∂J3
: −2u3 = 0
∂u3
Despejando la variable de control:
u3 = 0
J3 = 1 + y3
111
Entonces la función de Bellman del periodo 2 queda definida como:
J2 = 1 + y2 − u22 + 1 + y3
Sin embargo, no nos sirve ver una variable en el siguiente periodo. Es por
esto que la reemplazamos por la ecuación de movimiento, osea:
J2 = 1 + y2 − u22 + 1 + y2 + u2
112
Ejercicio 2:
Finalmente, ya vimos como resolver ejercicios por Bellman buscando los val-
ores óptimos. Sin embargo, a veces no podemos hacer esto ya que terminamos
en un periodo T desconocido. Por lo que buscamos la ecuación de Euler. En
este inciso vamos a ver dos formas diferentes de como encontrarlas.
T
(
X 1 st+1 = α(sy − ct )
ln ct sa 1
t=0 (1 + ω)
t β t = (1+ω)t
Las 4 condiciones de primer orden54 son las siguientes. Las primeras dos no
suelen generar muchas inconveniencias. Estas son:
∂L β t
: − αλt = 0
∂ct ct
∂L
: α(st − ct ) − st+1 = 0
∂λt
Las siguientes dos son derivadas con respecto a la variable de estado. La
primera que vamos a ver va a ser con respecto a la variable de estado en
t+1. Analizamos este periodo de tiempo ya que son todos los valores posibles
que pueden tomar esta variable. ¿Como llegamos a esta derivada? Primero
derivamos la función con respecto a la variable de estado en t + 1. Sin
embargo, en el siguiente periodo, todas las variables de estado que antes
estaban en t, ahora van a estar en t + 1. Por lo tanto, Lo que vamos a
hacer es, una vez derivado con las que en el periodo actual están en t + 1,
desplazamos la función (toda) un periodo y volvemos a derivar y lo sumamos
a la derivada previa. Esto quedarı́a:
∂L
: −λt + λt+1 α = 0
∂st+1
Finalmente, la ultima condición de primer orden es la derivada con respecto
a la variable de estado pero en el periodo T + 1 (el siguiente al final). En
54
Noten que se hacen para un T genérico.
113
este caso, no vamos a desplazar la función porque no nos interesa ese periodo
que se encuentra fuera de los limites de nuestro problema. Lo que hacemos
es pensar que la función esta en el periodo T y derivamos solo lo que tiene
T + 1.
∂L
: −λT = 0
∂sT +1
Ya planteadas las condiciones de primer orden, busquemos la trayectoria
óptima de la variable de control. Para esto, despejamos lambda de la primera
ecuación:
βt
λt =
ct α
Y la desplazamos un periodo:
β t+1
λt+1 =
ct+1 α
Esto la reemplazamos en la condición tres:
αβ t+1 βt
− =0
ct+1 α ct α
Re organizando los términos:
ct+1 = ct βα
Esta es la Ecuación de Euler55 .
Sin embargo, se puede llegar a este resultado por otro método. Para esto,
planteamos la ecuación de Bellman (usamos la de valor corriente). Esta la
planteamos en un t genérico:
V (st ) = ln ct + βVt+1 (st+1 )
La condición de primer orden es la derivada con respecto a la variable de
control:
∂Vt 1 ∂Vt+1
: −β α=0
ct ct ∂st+1
Hay que notar que realizamos la derivada en cadena, ya que la función en
el siguiente periodo depende de la variable de estado y esta depende de la
variable de control. Despejando la derivada incógnita que nos quedó:
∂Vt+1 1
=
∂st+1 ct βα
55
Una ecuación en diferencias de orden uno que se puede resolver fácilmente.
114
Ahora, buscamos la ecuación de Benveniste-Scheinkman (derivada de la función
con respecto a la variable de estado):
Vt ∂Vt+1 1 1
: βα = βα =
st ∂st+1 ct βα ct
Esta ecuación ahora la vamos a desplazar un periodo:
Vt 1
=
st+1 ct+1
Reemplazando esta ecuación desplazada en la condición inicial nos queda:
1 1
−β α=0
ct ct+1
ct+1 = βαct
115